Dans la course à la productivité via des outils d’intelligence artificielle, des aspects fondamentaux de sécurité et de gouvernance ont été négligés par Microsoft et consorts, selon Jack Berkowitz, Chief Data Officer de Securiti, interviewé par The Register.

« Microsoft présente Copilot comme un moyen de rendre les utilisateurs plus créatifs et plus productifs en capturant tout le travail humain latent dans les données utilisées pour former ses modèles d’IA et en le revendant », déclare Jack Berkowitz. « Les services d’IA générative sont apparus il n’y a que deux ans et il reste encore du travail à faire ». Ainsi, « Copilot est susceptible de fournir des informations confidentielles à l’ensemble des employés, y compris celles ayant trait aux salaires par exemple ». « Et il n’y a pas que les données relatives aux ressources humaines qui peuvent apparaître de manière inappropriée lors d’une interaction avec Copilot », remarque Jack Berkowitz. Il observe que cela a remis en question le déploiement de services Copilot au sein des grandes entreprises où travaillent ses homologues américains.

Une étude de GCS Technologies met en évidence que 16% des données critiques des entreprises sont sur-partagées en utilisant Copilot, 90% des documents critiques pour l’entreprise circulent en dehors de la direction et 17% des données sensibles sont partagées avec des tiers.