Prévenir l’Armageddon nucléaire de l’IA
L’histoire nucléaire regorge de quasi-accidents, de catastrophes évitées grâce à un humain qui a choisi de se fier à son propre jugement plutôt que de suivre aveuglément les informations fournies par les machines. Appliquer l’intelligence artificielle aux armes nucléaires augmente les chances que, la prochaine fois, personne n’arrête le lancement.
GENEVE – Ce n’est plus de la science-fiction : le course L’application de l’intelligence artificielle aux systèmes d’armes nucléaires est en cours – une évolution qui pourrait rendre plus probable une guerre nucléaire. Alors que les gouvernements du monde entier agissent pour garantir le développement et l’application en toute sécurité de l’IA, il existe une opportunité d’atténuer ce danger. Mais si les dirigeants du monde veulent s’en emparer, ils doivent d’abord reconnaître la gravité de la menace.
Ces dernières semaines, le G7 s’est mis d’accord sur le Code de conduite international du processus d’Hiroshima pour les organisations développant des systèmes d’IA avancésafin de « promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier », et le président américain Joe Biden a publié un décret établir de nouvelles normes pour la « sûreté et la sécurité » de l’IA. Le Royaume-Uni a également accueilli la première Sommet sur la sécurité de l’IAdans le but de garantir que la technologie soit développée de manière « sûre et responsable ».
Mais aucune de ces initiatives ne répond de manière adéquate aux risques posés par l’application de l’IA aux armes nucléaires. Le code de conduite du G7 et le décret de Biden ne font référence qu’en passant à la nécessité de protéger les populations contre les menaces chimiques, biologiques et nucléaires générées par l’IA. Et le Premier ministre britannique Rishi Sunak n’a pas du tout mentionné la menace aiguë que représentent les applications de l’IA liées aux armes nucléaires, même s’il déclaré qu’une compréhension commune des risques posés par l’IA avait été atteinte lors du Sommet sur la sécurité de l’IA.