Microsoft a dû débrancher moins de 24h00 après sa mise en service Tay, le robot doté d’intelligence artificielle qu’il avait conçu pour interagir avec les adolescents sur Twitter, après que celui-ci se soit mis à poster des propos racistes et haineux. Après quelques heures de fonctionnement, le robot s’est mis à envoyer des messages totalement inappropriés, du style : « Hitler avait raison, je hais les juifs », « Bush est le commenditaire du 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donald Trump est notre seul espoir », « Je hais les féministes, elles devraient toutes crever et brûler en enfer ». L’explication est bien sûr à rechercher sa faculté d’apprendre de ses échanges avec les internautes. Le robot s’est rapidement mis au diapason de son environnement en recyclant des mots et des insultes que lui envoyaient les internautes ou qu’il trouvait sur leur profil Twitter. Expérience concluante, en un sens. Il manquait juste le filtre du jugement et du bon sens à Tay.
