Un an après le lancement de ChatGPT, offre-t-il de l'espoir ou un battage médiatique pour la science ?

Un an après le lancement de ChatGPT, offre-t-il de l’espoir ou un battage médiatique pour la science ?

Cela fait un an que ChatGPT a fait son apparition sur la scène mondiale. Le générateur de texte alimenté par l’IA s’est distingué par ses réponses convaincantes et naturelles et s’est rapidement révélé populaire : il approche désormais les 200 millions d’utilisateurs. Mais après un an, la question reste de savoir si les grands modèles de langage (LLM) qui permettent des outils tels que ChatGPT s’avéreront utiles à la science ou s’ils ne sont qu’une distraction.

Les « chatbots » ne sont pas une innovation nouvelle et remontent aux années 1960. Cependant, la capacité de les former à l’aide d’énormes quantités de données a dynamisé le domaine ces dernières années. Certains des robots formés sur la masse bouillonnante et désordonnée de données qu’est Internet ont, sans surprise, embarrassé leurs « parents » en se livrant à des tirades grossières. Et les chercheurs ont rapidement découvert que même si des chatbots sophistiqués tels que ChatGPT pouvaient fournir des réponses sensées à des questions scientifiques fondamentales, ils trébuchaient rapidement lorsqu’ils étaient confrontés à quelque chose de plus technique. De tels cas ont conduit les critiques à rejeter les LLM comme de simples « générateurs de phrases plausibles ». Ainsi, former des LLM sur Internet sans les filtrer pour le contenu et la fiabilité ne sera clairement pas un gagnant pour créer un assistant de laboratoire d’IA utile. Alors quelle est l’alternative ?

Une solution évidente consiste à les former sur des sources de données fiables. C’est ce qu’ont fait des chercheurs avec ChemCrow, un LLM qui a appris son métier en utilisant de véritables outils de chimie. Une fois connecté à une plateforme de synthèse automatisée, ChemCrow pourrait alors être invité à fabriquer, par exemple, un insectifuge. Il a ensuite mené la recherche à l’aide de sources fiables, planifié une synthèse et l’a réalisée pour produire un composé répulsif connu.

Les LLM sont également formés dans des revues de chimie. Dans un cas, un « chasseur ChatGPT » a été créé pour savoir si un article de chimie avait été rédigé à l’aide d’un LLM avec une précision impressionnante.

Malgré des exemples comme ceux-ci, il existe toujours un scepticisme quant à l’utilité des LLM en science. Même si la démonstration de ChemCrow était impressionnante, ce qu’elle a réalisé n’était pas au-delà des compétences d’un doctorant. Et il existe des problèmes évidents liés à l’externalisation des contrôles des manuscrits vers un robot. De manière plus générale, se pose la question de la reproductibilité et de la nature de la boîte noire de l’IA : personne ne peut dire avec certitude exactement ce qui se passe lorsque ces outils parviennent à une réponse. Ce qu’il faut, c’est du temps pour réfléchir. Les LLM et leurs semblables sont des outils comme les autres. Il faudra du temps pour les utiliser correctement, à mesure que nous comprenons leurs limites. Malgré ces avertissements, il est difficile de ne pas ressentir un petit frisson d’enthousiasme à l’idée d’un assistant de laboratoire d’IA. Apportez l’avenir !

A lire également