Les Universités multiplient leurs offres pour apprendre aux étudiants à devenir des éthiciens de l’IA
Certains craignent que l’intelligence artificielle ne rende les êtres humains inutiles au sein du marché du travail. Denise Kleinrichert ne fait pas partie de ces personnes.
Professeur de gestion à l’Université d’État de San Francisco, Kleinrichert prédit que l’utilisation de l’IA deviendra aussi courante que l’utilisation des téléphones portables, et que les départements organisationnels chargés de superviser l’utilisation de l’IA deviendront aussi ordinaires que les départements des ressources humaines.
« Est-ce que cela va complètement remplacer tous les êtres humains ? Je ne peux pas prévoir cela de notre vivant. Ni dans une vie future », a-t-elle déclaré. « Cela change simplement notre façon de faire des affaires. »
Mais pour que cet avenir rose devienne réalité, Kleinrichert Cela dit, les employés doivent apprendre comment fonctionne l’IA, où elle est biaisée, quand elle peut menacer la vie privée et comment reconnaître quand le résultat d’un agent IA est tout simplement faux.
C’est pourquoi elle enseigne un cours sur l’éthique et la conformité de l’IA dans le cadre du programme d’études de l’État de San Francisco. certificat d’études supérieures en intelligence artificielle éthiqueproposé depuis 2019. « Les employeurs recherchent des employés qui savent ce qui est éthique et ce qui ne l’est pas en matière d’IA », a-t-elle déclaré. « Nous devons préparer nos étudiants. »
Cela explique la popularité des cours, des certificats et des programmes de maîtrise axés sur l’éthique de l’IA. Certains sont conçus pour des étudiants ayant peu ou pas de connaissances en informatique. D’autres se concentrent sur la manière d’utiliser l’IA dans un domaine spécifique. Mais au cœur de chaque programme se trouve l’accent mis sur la prévention des préjudices.
« L’IA concerne tout le monde », a déclaré Sonja Schmer-Galunder, professeur d’IA et d’éthique à l’Université de Floride. « Nous devons proposer une éducation plus globale qui se concentre sur la manière dont nous pouvons le faire de manière sûre et éthique. »
Qu’est-ce qu’un éthicien de l’IA ?
Un rapport 2025 du l’organisation d’analyse du marché du travail Lightcast a découvert que offres d’emploi nécessitant des compétences en IA générative pour les rôles non techniques y compris les soins de santé, l’hôtellerie, l’éducation et la finance, ont été multipliés par neuf entre 2022 et 2024. Et un nombre croissant d’emplois nécessitent spécifiquement une expertise en matière d’éthique de l’IA, c’est-à-dire si la technologie est utilisée de manière responsable et équitable au sein d’une organisation ou d’une entreprise.
Plus de 100 000 des emplois pour les employés ayant une expertise en éthique de l’IA sont désormais affichés chaque année, selon une étude de 2025. Et même si de nombreuses compétences techniques peuvent être acquises sur le tas, l’éthique de l’IA est hautement interdisciplinaire et touche à la science des données, aux affaires et à la philosophie.
Quiconque utilise l’IA doit considérer les risques par rapport aux avantages de s’appuyer sur cet outil. Mais pour certains, évaluer la fiabilité éthique d’un outil d’IA est au cœur de leur travail.
Les éthiciens de l’IA sont chargés de s’assurer que l’utilisation de l’IA par leur employeur est conforme à la loi et au code de conduite de l’organisation. Les éthiciens combinent leurs connaissances sur le fonctionnement de l’IA avec les principes éthiques de base, et ils sont souvent chargés d’exécuter des outils d’IA dans le cadre d’audits de fiabilité.
Ils peuvent suivre les meilleures pratiques pour effectuer ces audits, y compris un cadre politique fédéral axé sur la cybersécurité et des directives plus générales du Institut des auditeurs internes. En général, les audits se concentrent sur des questions fondamentales : comment les risques liés à l’utilisation de l’IA seront-ils traités ? Les données utilisées pour entraîner les modèles d’IA sont-elles exactes ? Les outils d’IA sont-ils testés avant d’être déployés ?
Certains programmes d’éthique académique exigent même que les étudiants conçoivent leurs propres outils d’IA, puis les auditent.
« S’ils développent une application médicale, ils doivent discuter de l’impact des erreurs que le système pourrait commettre », a déclaré Dragutin Petkovicqui enseigne le cours d’informatique dans le cadre du programme de certificat d’éthique de l’IA de l’État de San Francisco. « Et s’il hallucine ? Quel impact cela aura-t-il sur les patients ? »
Parmi les questions Petković veut que ses étudiants se demandent : un humain peut-il débrancher l’outil d’IA en cas d’urgence médicale ? Anticiper le pire des cas fait partie du travail d’un éthicien, a-t-il déclaré.
La réglementation gouvernementale ajoute une couche statutaire que les éthiciens doivent également surveiller. En décembre, le président Donald Trump signé un décret appelant à une politique fédérale en matière d’IA. Le mois dernier, la Maison Blanche a publié un cadre national uniforme pour l’IA via des recommandations législatives au Congrès qui appellent à anticiper les réglementations nationales distinctes.
Il est important de réglementer l’utilisation de la technologie, a déclaré Schmer-Galunderqui enseigne un cours d’éthique de l’IA destiné aux leaders technologiques dans le cadre de une maîtrise en systèmes d’IA. Cela aide à se prémunir contre les dommages tout en codifiant potentiellement les objectifs d’une société sur la manière dont l’IA peut être un avantage. Les organisations qui utilisent l’IA, a-t-elle déclaré, devraient réfléchir à la manière dont l’IA peut aider à résoudre les problèmes de la société.
« Quoi que nous essayions de développer, de faire ou de déployer, nous devons nous demander si cela va conduire à l’épanouissement de l’humanité ou à l’eau potable ou s’il aura un résultat sociétal positif », a-t-elle déclaré. Il s’agit d’un défi dans un contexte d’entreprise axé sur le profit, a-t-elle déclaré.
Dans son cours, cependant, les étudiants discutent des façons dont la réglementation pourrait encourager l’IA éthique en tant qu’avantage concurrentiel.
Ses étudiants travaillent en groupe et jouent des rôles courants dans les entreprises technologiques : responsable de programme, expérience utilisateur, budget, mise en œuvre technique et éthicien.
Ensemble, ils discutent des scénarios de développement de produits et des risques potentiels liés à la commercialisation de produits intégrés à l’IA sans tests suffisants. Schmer-Galunderqui développe un master multidisciplinaire distinct axé exclusivement sur l’éthique de l’IA, a cité les chatbots comme exemple.
« Nous avons vu qu’elles peuvent avoir de graves conséquences lorsque les gens commencent non seulement à s’anthropomorphiser, mais à avoir des visions déformées de la réalité », a-t-elle déclaré. Lorsque les chatbots IA étaient nouveaux, dit-elle, les développeurs discutaient de la manière de contrôler certains aspects de la personnalité d’un robot. Mais quand j’avais 14 ans en Floride mort par suicide en 2024 après être prétendument tombé amoureux d’un chatbot et s’être isolé des autres, les groupes de parents ont blâmé le robot IA de type humain.
« J’aimerais voir une prise de conscience accrue de cet état d’esprit d’ingénierie qui consiste à construire quelque chose, à le diffuser et à voir ensuite ce qui se passe. » Schmer-Galunder « Il y a donc une conscience d’être responsable de ce que vous faites et que vous pouvez être la voix de la raison. »
Les limites de l’IA
De nombreux programmes universitaires engagent des professeurs de philosophie pour examiner l’IA et percer les hypothèses sur son fonctionnement. Même le terme « intelligence artificielle » mérite d’être remis en question, car il peut susciter des attentes quant à ce dont l’IA est capable, a déclaré Jay Gupta, professeur de philosophie à la Northeastern Universityà Boston, qui enseigne un cours de premier cycle en technologie et en valeurs humaines.
« Dans quelle mesure est-il approprié d’interpréter des éléments tels que l’autonomie dans les performances des systèmes d’IA, même si nous faisons référence aux véhicules autonomes ? » » a-t-il déclaré, soulignant qu’un véhicule véritablement autonome pouvait décider d’aller où il voulait. « Le langage que nous utilisons peut brouiller, plutôt que clarifier, les distinctions importantes entre la cognition humaine et les processus informatiques. »
Les éthiciens de l’IA, Gupta a déclaré : « devrait conserver une conscience philosophique concernant l’ambiguïté de tels termes ».
« L’IA concerne tout le monde. Nous devons fournir une éducation plus holistique qui se concentre sur la manière dont nous pouvons le faire de manière sûre et éthique. »
Sonja Schmer-Galunder
Professeur d’IA et d’éthique, Université de Floride
Il est également vrai que les outils d’IA facilitent de nombreuses tâches, en particulier lorsqu’il s’agit de recherches sur le Web. Cordon Mat donne un cours d’éthique et de droit de l’IA à Université Baylor à Waco, Texas. D’autres cours en Série de certificats de Baylor se concentrer sur l’IA dans les soins de santé et les entreprises.
Cordon a déclaré que lorsque les avocats rédigent des plaidoiries ou des mémorandums, la recherche manuelle peut prendre beaucoup de temps. Utiliser un outil d’IA pour trouver des citations de cas est efficace, mais cela présente également de gros risques.
« Il cite une affaire et vous donne un nom d’affaire et une juridiction. Mais vous recherchez cette affaire, et elle n’existe pas. Elle n’a jamais existé », a-t-il déclaré. « Les avocats sont sanctionnés pour avoir copié et collé ces réponses dans leurs dossiers. La profession est confrontée à ce problème. »
Un exemple de ceci s’est produit l’année dernière en Californie, où un avocat a été condamné à une amende de 10 000 $ pour avoir déposé un appel rempli de fausses citations générées par l’IA. En septembre, l’État Le Conseil de la magistrature a publié des lignes directrices obliger le personnel des tribunaux à interdire l’utilisation de l’IA ou à élaborer sa propre politique concernant son utilisation.
Les cordons les étudiants comprennent des avocats, des parajuristes et d’autres personnes intéressées par la façon d’utiliser l’IA le plus efficacement possible – et sans commettre d’erreurs flagrantes. Il a déclaré qu’en plus de fournir de fausses informations, telles que des cas qui n’existent pas, l’IA peut également créer des erreurs cruciales liées au langage.
Une rédaction juridique réussie nécessite l’utilisation d’un langage précis, a-t-il déclaré, et les outils d’IA ne sont tout simplement pas capables de comprendre la précision dans des contextes spécifiques. Les mots « vague » et « ambigu », par exemple, peuvent être utilisés de manière interchangeable dans la plupart des situations, a-t-il déclaré. Mais dans des contextes juridiques, ils ont des significations différentes. Une loi « vague », par exemple, pourrait être déclarée nulle parce qu’elle ne précise pas ce qui est illégal. Quelque chose qui est juridiquement « ambigu » est simplement ouvert à différentes interprétations.
« Les grands modèles linguistiques sont formés sur des données généralement accessibles sur Internet, et Internet ne fera pas toujours la distinction entre le sens de « vague » et « ambigu » » Cordon dit. « L’intelligence artificielle ne reconnaît pas nécessairement toutes ces nuances. L’humain doit le reconnaître. L’IA ne détectera pas ses propres erreurs. »
Dans une main-d’œuvre de plus en plus intégrée à l’IA, les employés doivent posséder les compétences nécessaires pour réfléchir de manière critique à la manière dont l’intelligence artificielle est utilisée et à l’exactitude de ses résultats.
« Les entreprises de santé et les banques ont besoin que les gens soient éduqués. C’est le but de notre certificat », a déclaré État de San Francisco Petković. « En outre, les personnes occupant des postes décisionnels au sein du gouvernement étatique ou fédéral ont besoin d’être informées de la façon dont cela fonctionne. »
