Idiotie Artificielle

Idiotie Artificielle

Le problème avec les nouveaux chatbots n’est pas seulement qu’ils sont souvent stupides et naïfs ; c’est qu’ils ne sont pas assez « stupides » ou « naïfs » pour saisir les nuances, les ironies et les contradictions révélatrices qui constituent la culture et la communication humaines. Pire, en s’appuyant sur eux, on risque de succomber à la même obtusité.

LJUBLJANA – Il n’y a rien de nouveau dans les « chatbots » qui sont capables de maintenir une conversation en langage naturel, de comprendre l’intention de base d’un utilisateur et d’offrir des réponses basées sur des règles et des données prédéfinies. Mais la capacité de ces chatbots a été considérablement augmentée ces derniers mois, ce qui a provoqué des tordages et de la panique dans de nombreux cercles.

On a beaucoup parlé des chatbots augurant fin de la dissertation traditionnelle des étudiants. Mais une question qui mérite une attention particulière est de savoir comment les chatbots doivent réagir lorsque des interlocuteurs humains utilisent des remarques agressives, sexistes ou racistes pour inciter le bot à présenter ses propres fantasmes grossiers en retour. Faut-il programmer les IA pour répondre au même niveau que les questions posées ?

Si nous décidons qu’une sorte de réglementation s’impose, nous devons alors déterminer jusqu’où la censure doit aller. Les positions politiques que certaines cohortes jugent « offensives » seront-elles interdites ? Qu’en est-il des expressions de solidarité avec les Palestiniens de Cisjordanie, ou de l’affirmation selon laquelle Israël est un État d’apartheid (que l’ancien président américain Jimmy Carter a mettre dans le titre d’un livre) ? Seront-ils bloqués comme « antisémites » ?

A lire également