Google met en garde ses propres employé·e·s contre la divulgation d’informations confidentielles ou l’utilisation du code généré par son chatbot Bard. Elle n’est pas la seule grande entreprise œuvrant dans le domaine de l’intelligence artificielle (IA) à sensibiliser son personnel quant à la fuite de documents ou de codes propriétaires et à leur interdire d’utiliser un autre chatbot (robot conversationnel) que celui de leur entreprise. Microsoft en fait de même avec Bing.

Google justifie auprès de l’agence de presse Reuters que cette interdiction est liée fait que « Bard peut générer des suggestions de code indésirables ». Cependant, selon The Register, cette politique interne renforce les craintes sur le fait que des outils d’IA conçus par des entreprises privées ne soient pas dignes de confiance : « Même leurs créateurs ne les utilisent pas en raison des risques qu’ils présentent pour la vie privée et la sécurité. »

Par ailleurs, le laboratoire d’IA DeepMind de Google ne souhaite pas que le gouvernement américain mette en place une agence chargée de réglementer l’intelligence artificielle. Dans un rapport de 33 pages obtenu par le Washington Post, il estime que cette tâche devrait être répartie entre différents départements plutôt que confiée à un organisme unique. Il recommande « une approche multicouche et multipartite de la gouvernance de l’IA ». Et d’argumenter : « L’IA va poser des problèmes particuliers pour les services financiers, les soins de santé et d’autres secteurs réglementés. Ceux-ci bénéficieront d’une expertise des régulateurs spécifique à ces secteurs ».