Google se serait précipité pour sortir son chatbot, Bard, en réponse au lancement du ChatGPT d’OpenAI. C’était trop tôt selon des employé·e·s du moteur de recherche d’Alphabet. Un rapport de l’agence de presse Bloomberg cite des échanges avec 18 collaborateur·rice·s de Google qui émettent de forts questionnements éthiques.

Bard est un « menteur pathologique », « pire qu’inutile », selon des membres de l’équipe de sécurité de Google. Sont cités en exemples des conseils de sécurité donnés par Bard en matière de plongée sous-marine et d’atterrissage d’avion qui auraient provoqué des blessures graves ou la mort s’ils avaient été suivis.

Google aurait annulé une évaluation des risques confirmant que Bard n’était pas prêt pour une utilisation par le grand public. Selon Bloomberg, les témoignages soulignent que « le géant de confiance de la recherche sur Internet fournit des informations de mauvaise qualité dans une course pour suivre la concurrence tout en accordant moins de priorité à ses engagements éthiques ».

Le media technologique Développez mentionne le licenciement de deux chercheur·se·s, Timnit Gebru et Margaret Mitchell, pour avoir exposé des failles du système IA de la firme de Mountain View.

Pour Brian Gabriel, le porte-parole de Google, une intelligence artificielle éthique est la « priorité absolue » de l’entreprise. « Nous continuons à investir dans les équipes qui travaillent à l’application de nos principes d’IA à notre technologie. »

Rappelons que des milliers de personnalités de la tech appellent actuellement à faire une pause dans le développement de l’IA.