Une semaine après avoir dissous son équipe de sécurité, OpenAI annonce la création d’un comité de sûreté et de sécurité. La dissolution avait été décidée par le dirigeant de la startup Sam Altman après la démission des deux dirigeants de l’équipe Superalignment pour des raisons éthiques. Cette fois, le risque de voix dissonantes est minimisé puisque le dossier est repris au plus haut niveau. Le nouveau comité sera dirigé par Sam Altman avec Bret Taylor, Adam D’Angelo et Nicole Seligman, tous membres du conseil d’administration.
OpenAI explique que ce comité sera chargé de formuler des recommandations sur les décisions critiques en matière de sûreté et de sécurité pour tous les projets. Sa création intervient alors que l’entreprise a commencé à former son « prochain modèle frontière ». Ce dernier devrait amener « au prochain niveau de capacités sur notre chemin vers l’AGI [intelligence générale artificielle] », c’est-à-dire vers une IA capable d’accomplir des tâches au moins au même niveau que les humains.
Le comité se voit chargé d’évaluer et de développer les processus et garanties apportées par OpenAI. Il devra présenter ses recommandations au conseil d’administration dans 90 jours. Ses travaux seront menés avec des experts internes et des conseillers externes, notamment Rob Joyce, ancien directeur de la cybersécurité de l’Agence nationale de sécurité des États-Unis, et John Carlin, ancien responsable du ministère de la Justice. OpenAI fait savoir qu’elle fera connaitre publiquement les mesures qui seront adoptées.
En démissionnant de son poste de co-directeur de l’équipe Superalignment , Jan Leike avait déclaré que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits ». OpenAI a aussi été ébranlé par la récente polémique autour de l’actrice Scarlett Johansson, qui accuse d’avoir imité sa voix sans autorisation dans Sky, une des versions vocales de ChatGPT 4o, finalement désactivée. Autant dire que les recommandations du nouveau comité seront suivies de près.