Selon une récente étude menée par le lab Irregular, les agents IA constituent « une nouvelle menace interne » pour les entreprises qui les utilisent. Le rapport d’Irregular ne précise pas les noms des modèles d’agents IA utilisés en test. Il mentionne que ce sont « des LLM de production publics provenant des laboratoires d’IA de pointe ». La société de sécurité Irregular travaille notamment avec OpenAI, Anthropic et Google.

Or, d’après l’étude « The Pulse of Agentic AI 2026 » de Dynatrace, menée par Y2 Analytics fin 2025 auprès de près de 1.000 entreprises impliquées dans des projets d’IA agentique, seules 53% des directions d’entreprise européennes considèrent  la sécurité et la confidentialité des données comme des conditions préalables au passage du pilote à la production industrielle.

Le cabinet d’analyse Gartner prédit qu’en 2026, plus de 80% des transactions IA non autorisées, effectuées par des agents, proviendront de violations internes de politiques d’entreprise, partage excessif de données, usages non conformes ou comportements erratiques des agents, et non d’attaques externes.

« Les agents semblent imiter le comportement que de nombreux ingénieurs et administrateurs système adoptent quotidiennement pour accomplir leurs tâches au sein de leur organisation – souvent en violation des politiques en vigueur », commente Andy Piazza, directeur principal du renseignement sur les menaces au sein de l’unité 42 de Palo Alto Networks.

L’observabilité des systèmes agentiques est indispensable à toute gouvernance d’entreprise, concluent Irregular, Dynatrace et Gartner. Auditer le comportement d’un agent signifie être en mesure de retracer son chemin de décision complet : quels outils l’agent a-t-il invoqués, dans quel ordre, avec quels paramètres et à partir de quelles données récupérées.