Les collèges devraient-ils utiliser l'IA dans les admissions ?

Les Universités devraient-ils utiliser l’IA dans les admissions ?

En 2013, le département d’informatique de l’Université du Texas à Austin a commencé à utiliser un algorithme d’apprentissage automatique pour aider les professeurs à prendre des décisions d’admission aux cycles supérieurs. Sept ans plus tard, le système a été abandonné, attirant des critiques selon lesquelles il n’aurait pas dû être utilisé.

L’algorithme était basé sur les décisions d’admission précédentes et a fait gagner du temps aux membres du corps professoral. Il utilisait des choses comme la fréquentation d’une université «d’élite» ou des lettres de recommandation contenant le mot «meilleur» comme prédictif d’admission.

L’université a déclaré que le système n’avait jamais pris de décisions d’admission par lui-même, car au moins un membre du corps professoral examinerait les recommandations.. Mais les détracteurs ont déclaré qu’il encodait et légitimait tout parti pris présent dans les décisions d’admission.

Aujourd’hui, l’intelligence artificielle est à l’honneur. ChatGPT, un chatbot IA qui génère un dialogue de type humain, a créé un buzz important et renouvelé une conversation sur les parties de la vie et du travail humains qui pourraient être facilement automatisées.

Malgré les critiques adressées à des systèmes comme celui utilisé précédemment par UT Austin, certaines universités et responsables des admissions réclament toujours d’utiliser l’IA pour rationaliser le processus d’acceptation. Et les entreprises sont impatientes de les aider.

« Il a considérablement augmenté », a déclaré Abhinand Chincholi, PDG de OneOrigin, une société d’intelligence artificielle. « L’annonce de GPT – le type de technologie de ChatGPT – a maintenant incité tout le monde à vouloir l’IA. »

Mais les Universités intéressés par l’IA n’ont pas toujours une idée de l’utilisation qu’ils veulent en faire, a-t-il déclaré.

La société de Chincholi propose un produit appelé Sia, qui permet un traitement rapide des relevés de notes universitaires en extrayant des informations comme des cours et des crédits. Une fois formé, il peut déterminer les cours auxquels un étudiant entrant ou transféré peut être éligible, en transmettant les données au système d’information d’un établissement. Cela peut faire gagner du temps aux responsables des admissions et potentiellement réduire les coûts de personnel universitaire, a déclaré la société.

Chincholi a déclaré que la société travaille avec 35 universités clientes cette année et est en cours de mise en œuvre avec huit autres. Il répond chaque mois à environ 60 demandes d’information provenant d’autres Universités. Malgré les interrogations permanentes que certains se posent sur les nouveaux usages de l’IA, Chincholi croit de Sia le travail est résolument du bon côté des préoccupations éthiques.

 » Sia donne des indices sur l’opportunité de poursuivre ou non avec le demandeur », a-t-il déclaré. « Nous ne permettrions jamais à une IA de prendre de telles décisions car c’est très dangereux. Vous jouez maintenant avec les carrières des étudiants, la vie des étudiants.

D’autres sociétés d’IA vont un peu plus loin dans ce qu’elles sont prêtes à offrir.

Student Select est une entreprise qui propose des algorithmes pour prédire les décisions d’admission dans les universités.

Will Rose, directeur de la technologie chez Student Select, a déclaré que la société commence généralement par examiner la rubrique d’admission d’une université et ses données d’admission historiques. Sa technologie trie ensuite les candidats en trois niveaux en fonction de leur probabilité d’admission.

Les candidats du niveau supérieur peuvent être approuvés plus rapidement par les responsables des admissions, a-t-il déclaré, et ils obtiennent des décisions d’acceptation plus tôt. Les étudiants des autres niveaux sont toujours évalués par le personnel du Université.

Student Select offre également aux Universités ce Rose décrites comme des informations sur les candidats. La technologie analyse des essais et même des entretiens enregistrés pour trouver des preuves de compétences de pensée critique ou de traits de personnalité spécifiques.

Par exemple, un candidat qui utilise le mot «flexibilité» en réponse à une question d’entrevue spécifique peut exprimer une «ouverture à l’expérience», l’un des traits de personnalité mesurés par Student Select.

« Notre entreprise a démarré il y a plus de dix ans en tant que plate-forme numérique d’entretiens d’embauche, nous comprenons donc vraiment comment analyser les entretiens d’embauche et comprendre les traits de ces entretiens d’embauche », Rose a dit. « Et au fil des années, nous avons appris que nous pouvons faire le même genre d’analyse dans le domaine de l’enseignement supérieur. »

Student Select a des contrats avec une douzaine d’universités pour utiliser ses outils, a déclaré Rose. Mais il a refusé de les nommer, citant les termes du contrat, Technologie gouvernementale a rapporté en avril que l’Université Rutgers et l’Université Rocky Mountain faisaient partie des clients de l’entreprise. Aucune université n’a répondu aux demandes de commentaires.

Une boîte noire ?

Tout le monde ne pense pas que l’utilisation de cette technologie par les bureaux d’admission soit une bonne idée.

Julia Stoyanovich, professeur d’informatique et d’ingénierie à l’Université de New York, a conseillé aux Universités d’éviter les outils d’IA qui prétendent faire des prédictions sur les résultats sociaux.

« Je ne pense pas que l’utilisation de l’IA en vaille vraiment la peine », a déclaré Stoïanovitch, qui est le co-fondateur et directeur du Center for Responsible AI. « Il n’y a aucune raison pour nous de croire que leur façon de parler ou le fait qu’ils regardent ou non la caméra aient quelque chose à voir avec la qualité de leur élève. »

Une partie du problème avec l’IA est son insondabilité, Stoïanovitch a dit. En médecine, les médecins peuvent revérifier le travail de l’IA lorsqu’elle signale des choses comme des cancers potentiels sur des images médicales. Mais il y a peu ou pas de responsabilité lorsqu’il est utilisé dans les admissions à l’université.

Les agents peuvent penser que le logiciel sélectionne un trait spécifique, alors qu’il s’agit en fait de quelque chose de faux ou non pertinent.

« Même si nous croyons d’une manière ou d’une autre qu’il y avait un moyen de le faire, nous ne pouvons pas vérifier si ces machines fonctionnent. Nous ne savons pas comment aurait fait quelqu’un que vous n’avez pas admis », a-t-elle déclaré.

Lorsque les algorithmes sont formés sur les données d’admissions passées, ils répètent tous les biais qui étaient déjà présents. Mais ils vont aussi plus loin en sanctionnant ces décisions inégales, Stoïanovitch a dit.

De plus, les erreurs dans les algorithmes peuvent affecter de manière disproportionnée les personnes issues de groupes marginalisés. Par exemple, Stoyanovich a souligné la méthode de Facebook pour déterminer si les noms étaient légitimes, ce qui a amené l’entreprise à eau chaude en 2015 pour avoir expulsé les utilisateurs amérindiens de la plate-forme.

Enfin, le personnel des admissions peut ne pas avoir la formation nécessaire pour comprendre le fonctionnement des algorithmes et le type de déterminations qu’il est sûr d’en tirer.

« Vous devez au moins avoir une certaine expérience pour dire: » Je suis le décideur ici, et je vais décider de suivre cette recommandation ou de la contester « , Stoïanovitch a dit.

Avec la croissance rapide des systèmes d’IA générative comme ChatGPT, certains chercheurs s’inquiètent d’un avenir où les candidats utiliseront des machines pour rédiger des essais qui seront lus et notés par des algorithmes.

La lecture d’essais par des machines va donner « encore plus d’impulsion pour que les élèves les génèrent par machine », a déclaré Les Perelman, ancien doyen associé du Massachusetts Institute for Technology qui a étudié l’évaluation automatisée de l’écriture. « Il ne sera pas en mesure d’identifier s’il était original ou simplement généré par ChatGPT. Toute la question de l’évaluation de l’écriture a vraiment été bouleversée.

En faisant attention

Benjamin Lira Luttges, doctorant à l’Université de Pennsylvanie département de psychologie qui fait des recherches sur l’IA dans les admissions à l’université, a déclaré que les lacunes humaines favorisent certains des problèmes liés à la technologie.

« Une partie de la raison pour laquelle les admissions sont compliquées est qu’il n’est pas clair qu’en tant que société, nous sachions exactement ce que nous voulons maximiser lorsque nous prenons des décisions d’admission », Lire dit par e-mail. « Si nous ne faisons pas attention, nous pourrions construire des systèmes d’IA qui maximisent quelque chose qui ne correspond pas à ce que nous, en tant que société, voulons maximiser. »

L’utilisation de la technologie a ses risques, a-t-il dit, mais elle a aussi ses avantages. Les machines, contrairement aux humains, peuvent prendre des décisions sans « bruit », ce qui signifie qu’elles ne sont pas influencées par ce que pourrait être le personnel des admissions, comme son humeur ou la météo.

« Nous n’avons pas de très bonnes données sur ce qu’est le statu quo », Lire a dit. « Il pourrait y avoir un potentiel de biais dans les algorithmes et il pourrait y avoir des choses que nous n’aimons pas chez eux, mais s’ils fonctionnent mieux que le système humain, alors ce pourrait être une bonne idée de commencer à déployer progressivement des algorithmes dans les admissions. »


« Si nous ne faisons pas attention, nous pourrions construire des systèmes d’IA qui maximisent quelque chose qui ne correspond pas à ce que nous, en tant que société, voulons maximiser. »

Benjamin Lira Luttges

Doctorant, Université de Pennsylvanie


Roseà Sélection étudiantreconnaît qu’il existe des risques liés à l’utilisation de l’IA dans les admissions et les embauches. Amazon, a-t-il noté, abandonné son propre algorithme pour aider à l’embauche après avoir découvert l’outil discriminatoire envers les femmes.

Mais Sélection étudiant évite ces résultats négatifs, a-t-il dit. L’entreprise commence le processus par un audit biaisé des résultats d’admission précédents d’un client et examine régulièrement sa propre technologie. Ses algorithmes sont assez transparents, Rose dit, et peut expliquer sur quoi il fonde ses décisions.

L’analyse produit des scores moyens égaux entre les sous-groupes, est validée par des universitaires externes et n’est pas entièrement nouvelle, Rose a dit.

« Nous utilisons à la fois des chercheurs internes et externes pour développer cet outil, et tous ces experts sont des experts en sélection », a-t-il déclaré. « Nos modèles d’apprentissage automatique ont été formés sur un ensemble de données qui comprend des millions d’enregistrements. »

Au-delà des questions éthiques liées à l’utilisation de l’IA dans les admissions, Stoïanovitch dit qu’il y en a aussi des pratiques.

Quand des erreurs sont commises, qui sera responsable ? Les étudiants voudront peut-être savoir pourquoi ils ont été rejetés et comment les candidats ont été sélectionnés.

« Je serais très prudente en tant que responsable des admissions, en tant que directrice des admissions dans une université ou ailleurs, lorsque je décide d’utiliser un outil algorithmique », a-t-elle déclaré. « Je serais très attentif à comprendre comment fonctionne l’outil, ce qu’il fait, comment il a été validé. Et je garderais un œil très, très attentif sur la façon dont il se comporte au fil du temps.

A lire également