Une lettre signée par au moins 1.100 personnalités de la tech et publiée sur le site du Future of Life Institute conseille d’interrompre – pendant six mois au moins – la progression de systèmes d’Intelligence Artificielle (IA) tels que GPT-4, la dernière version du robot conversationnel d’OpenAI, ou des systèmes IA encore plus puissants.

Le contenu de la lettre se traduit en ces mots :

« Les systèmes d’IA dotés d’une intelligence capables de concurrencer celle de l’homme posent de graves risques pour l’humanité, comme le démontrent des études reconnues par les meilleurs laboratoires d’IA. Ainsi que l’affirment les principes d’IA d’Asilomar, l’IA avancée pourrait représenter un changement majeur dans l’histoire de la vie sur Terre. Elle devrait donc être planifiée et gérée avec soin et avec des ressources proportionnées.

Malheureusement, ce niveau de planification et de gestion est absent. Ces derniers mois, les laboratoires d’IA se sont lancés dans une course effrénée pour développer des systèmes numériques toujours plus puissants. Personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler ces systèmes de manière fiable.

Les systèmes d’IA actuels sont désormais capables de concurrencer l’homme dans des tâches de portée générale et nous devons nous poser des questions : devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contre-vérités ? Devrions-nous automatiser tous les emplois, y compris ceux épanouissants ? Devrions-nous développer des systèmes inhumains qui pourraient éventuellement nous dépasser en nombre et en intelligence, nous rendre obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être laissées à des leaders technologiques non élus. Des systèmes d’IA puissants ne devraient être développés qu’une fois acquise la certitude que leurs effets sont positifs et leurs risques gérables.

Cette certitude doit être solidement étayée et renforcée au fur et à mesure de la progression des effets potentiels de ces systèmes. Selon la récente déclaration d’OpenAI concernant l’intelligence artificielle, « à un certain moment, il sera essentiel de procéder à une expertise indépendante avant d’entraîner de futurs systèmes. Il faudra accepter de limiter la croissance de la puissance de calcul employée pour créer de nouveaux modèles dans les travaux de pointe. » Nous sommes d’accord. Et ce moment, c’est maintenant.

Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement l’entraînement des systèmes d’IA plus puissants que GPT-4 pour une durée d’au moins six mois. Cette pause doit être publique, vérifiable et inclure tous les acteurs clés. Si une telle pause ne peut être décrétée rapidement, les gouvernements devraient intervenir et décréter un moratoire.

Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre un ensemble de protocoles de sécurité pour la conception et le développement d’IA, audités et supervisés par des experts indépendants.

Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l’IA en général, mais plutôt de baisser d’un cran la course dangereuse vers d’imprévisibles boîtes noires, développant de nouvelles capacités. 

La recherche et le développement de l’IA devraient être recentrés sur la fabrication de systèmes puissants et à la pointe de la technologie, plus précis, plus sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux. En parallèle, les développeurs d’IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA.

Ces dispositifs devraient au moins comprendre de nouvelles autorités de réglementation compétentes dédiées à l’IA, la surveillance et le suivi des systèmes d’IA hautement performants et des grosses capacités de calcul, l’origine et la traçabilité des systèmes pour pouvoir distinguer ce qui est réel de ce qui ne l’est pas et détecter les vulnérabilités des modèles ; un écosystème robuste d’audit et de certification ; une responsabilité pour les dommages causés par l’IA ; un financement public solide pour la recherche technique sur la sécurité de l’IA ; et des institutions capables de faire face aux changements économiques et politiques majeurs que l’IA entraînera.

L’humanité peut profiter d’un avenir florissant avec l’IA (…) La société a déjà fait une pause d’autres technologies susceptibles d’avoir des effets potentiellement catastrophiques pour elle. Nous pouvons en faire de même ici (…) au lieu de nous précipiter sans préparation dans une chute. »