MSN.com et Microsoft Start ont remplacé une bonne partie de leur équipe éditoriale – de 800 personnes en 2018 – par de l’intelligence artificielle. Les résultats sont peu heureux et parfois complètement faux. En effet, l’intelligence artificielle relaie de temps à autre des articles provenant de sources non fiables. Parfois, elle créée aussi des sondages sur des sujets inappropriés.
Plusieurs médias s’en sont plaints, y compris la PDG du quotidien britannique The Guardian qui s’est fendue d’une lettre au président de Microsoft, Brad Smith. Cette lettre a été écrite suite à un article du Guardian sur une jeune femme de 21 ans retrouvée morte avec des blessures à la tête dans une école en Australie. L’IA de l’agrégateur d’actualités Microsoft Start a republié l’article original en l’accompagnant d’un sondage : « Quelle est, selon vous, la raison de la mort de cette femme ? ». L’IA proposait trois options : meurtre, accident ou suicide.
« Je vous écris en raison d’une application très préoccupante de Microsoft genAI sur le journalisme du Guardian dans Microsoft Start – un sondage généré automatiquement demandant au public de spéculer sur la cause de la mort d’une personne », écrit Anna Bateson à Brad Smith. « Il s’agit clairement d’un usage inapproprié de la genAI par Microsoft sur un sujet d’intérêt public potentiellement pénible, écrit et publié à l’origine par des journalistes du Guardian. C’est l’une des principales raisons pour lesquelles nous avons déjà demandé à vos équipes de ne pas appliquer les technologies expérimentales de la genAI de Microsoft au journalisme sous licence du Guardian. Non seulement, c’est potentiellement pénible pour la famille de la personne qui fait l’objet de l’article, mais c’est aussi profondément préjudiciable à la réputation du Guardian, durement acquise pour son journalisme fiable et sensible, et à la réputation des journalistes qui ont écrit l’article original ».
Anna Bateson cite des commentaires de lecteur·rice·s du Guardian qui ne se sont pas rendu·e·s compte que le sondage était généré automatiquement par une intelligence artificielle de Microsoft : « Quelle société dégoûtante et dépravée nous sommes devenus, dans laquelle un sondage est réalisé sur la façon dont une personne est décédée ». « Un sondage sur la raison de la mort d’une personne ? Qu’est-ce qui ne va pas chez vous !!! ». « Tamsin [la journaliste du Guardian ayant écrit l’article original] devrait être licenciée pour ce sondage. »
La directrice générale de l’équipe média du Guardian se plaint de l’absence d’étiquetage clair et transparent des contenus alimentés par la genAI (generative AI) et demande une indemnisation pour l’utilisation de la propriété intellectuelle du Guardian dans la formation et le déploiement des technologies d’IA. « L’importante atteinte à la réputation causée par cet incident avec un licencié existant de notre propriété intellectuelle démontre le rôle important que joue un cadre solide pour le droit d’auteur en permettant aux éditeurs de négocier les conditions d’utilisation de notre journalisme ».
Un porte-parole de Microsoft a déclaré que l’entreprise allait désactiver tous les sondages sur des sujets d’actualité et enquêter sur la cause du contenu inapproprié afin d’éviter qu’une telle erreur ne se reproduise.
Cela ne suffira évidemment pas. Ces dernières semaines, par exemple, un article de MSN affirmait – à tort – que le président américain Joe Biden s’était endormi pendant un hommage aux victimes des incendies à Hawaï. Un autre article de MSN relayait une rumeur – fausse – selon laquelle le superviseur de San Francisco, Dean Preston, avait supposément démissionné après avoir été critiqué par Elon Musk. D’autres fois, les titres des articles relayés par l’IA de MSN sont tellement extravagants que l’on peut facilement flairer la ‘fake news’ : « Des pêcheurs attrapent une sirène dans leurs filets », « La fête s’arrête alors qu’un OVNI géant la survole de près », « Une femme filme Bigfoot sautant d’un arbre en Californie ».