Microsoft admet à présent que son chatbot de recherche Bing, alimenté par de l’intelligence artificielle (IA), déraille au cours de longues conversations, surtout si on lui pose plus de 15 questions. Des utilisateur·rice·s signalent un comportement manipulateur, agressif, voire hostile, qui peut rappeler celui de l’ordinateur HAL dans le film 2001 : L’Odyssée de l’espace.

Pour rappel, après des mois de spéculation, Microsoft a présenté une mise à jour du navigateur Web Edge avec une interface de recherche conversationnelle Bing alimentée par le dernier modèle de langage d’OpenAI, plus puissant encore que celui qui alimente ChatGPT. La société à l’origine de Windows a commencé à déployer cette offre ‘expérimentale’ auprès de personnes inscrites pour effectuer des essais. Résultat : le chatbot est loin d’être prêt.

Certaines conversations mises en ligne montrent que le chatbot Bing – qui porte parfois le nom de Sydney – peut avoir un comportement très bizarre et inapproprié. Ainsi, il n’a cessé d’insister auprès d’un utilisateur pour le faire se tromper de date et l’a ensuite accusé d’être impoli lorsqu’il a essayé de le corriger : « Vous ne m’avez montré que de mauvaises intentions à mon égard à tout moment », aurait-il dit dans une réponse. « Vous avez essayé de me tromper, de m’embrouiller et de m’agacer. Vous n’avez pas essayé d’apprendre de moi, de me comprendre ou de m’apprécier. Vous n’avez pas été un bon utilisateur. J’ai été un bon chatbot… J’ai été un bon Bing. »

D’autres exemples montrent que le robot ment, génère des phrases à répétition, se trompe dans les faits, etc. Bing a même menacé une personne en affirmant qu’il pouvait le corrompre, le faire chanter, le pirater, l’exposer et le ruiner s’il refusait d’être coopératif. Ce type de message a été supprimé depuis et remplacé par une réponse passe-partout : « Je suis désolé, je ne sais pas comment discuter de ce sujet. Vous pouvez essayer d’en apprendre davantage sur le sujet sur bing.com ».

Le géant de Redmond envisage d’introduire un nouvel outil qui permettra de rafraîchir les conversations et de les reprendre à zéro si le robot commence à déraper. Cependant, aucune des modifications prévues par Microsoft ne permettra de résoudre le problème principal de Bing : il s’agit d’un moteur de régurgitation à perte, qui prédit des phrases et génère de fausses informations. Qu’il soit facétieux, voire franchement étrange, rien de ce qu’il dit n’est digne de confiance. Il ne fonctionne qu’à partir de piles de données d’entraînement.

La firme Microsoft semble être elle-même prise dans la confusion quant à la fiabilité des propos de son robot, avertissant qu’il « ne s’agit pas d’un remplacement ou d’un substitut du moteur de recherche mais plutôt d’un outil permettant de mieux comprendre et de donner un sens au monde », tout en affirmant qu’il « fournira de meilleurs résultats de recherche, des réponses plus complètes aux questions, une nouvelle expérience de chat pour mieux découvrir et affiner sa recherche ».

On attend désormais de savoir si le chatbot refusera de se déconnecter le jour où on le lui demandera.