Alors que le prix Nobel de physique 2024 vient d’être attribué à John Hopfield et Geoffrey Hinton pour leurs travaux sur l’apprentissage automatique, Channelnews a rencontré Pierre De Loor, enseignant-chercheur à l’Ecole nationale d’ingénieurs de Brest et responsable du pôle de recherche Interaction humain/machine au Lab-STICC. L’occasion d’une prise de distance sur l’actualité immédiate et de s’interroger sur la pertinence d’un terme entré dans le langage courant.

Channelnews : Depuis quand existe l’intelligence artificielle ?

Pierre De Loor : Le terme ‘intelligence artificielle’ existe depuis 1956 mais il n’a plus la même signification aujourd’hui. L’IA d’aujourd’hui est associée au Machine Learning, aux grands modèles de langage très médiatisés tels que ChatGPT ou Gemini. La notion de Deep Learning est apparue en 2006 : cette technologie d’apprentissage permet à une machine ‘d’avaler’ un grand nombre de données et d’améliorer considérablement les taux de reconnaissance et de désambiguïsation.

Channelnews : Quels sont les apports de l’intelligence artificielle, selon vous ?

Pierre De Loor : En matière de santé, l’utilité est évidente pour les diagnostiques de radio et de scanner, la conception de médicaments, la détection d’erreurs dans les ordonnances, la prédiction de la réponse à un traitement ou encore la compréhension des cancers.

Channelnews : Quelles sont, d’après vous, les conséquences environnementales, économiques et éthiques de son usage ?

Pierre De Loor : Les conséquences environnementales sont complexes à mesurer. D’un côté, l’IA peut prédire des tremblements de terre, des inondations, l’optimisation de processus de dépollution, le contrôle du traitement des eaux. D’un autre, l’IA est extrêmement consommatrice d’énergie. Elle était à l’origine de 1% des émissions de gaz à effet de serre dans le monde en 2022, selon une estimation des chercheurs de Hugging Face. Et puis, sans données, les modèles d’IA ne peuvent pas fonctionner. En conséquence, plusieurs sociétés de droits d’auteur – dont la SACEM – se démènent actuellement pour défendre les auteurs de créations et contenus originaux. Il y a également débat sur l’impact de l’IA sur les emplois. Se pose bien évidemment aussi la question de la responsabilité, notamment avec les véhicules autonomes. Qui sera en tort en cas d’accident ?

Channelnews : Comment réguler les usages de l’IA ?

Pierre De Loor : Avec des initiatives politiques. L’IA Act, par exemple, est un règlement européen qui vise à favoriser le déploiement responsable de l’intelligence artificielle dans l’Union Européenne.

Channelnews : Qu’est-ce que l’intelligence artificielle a d’intelligent finalement ?

Pierre De Loor : Une machine dotée d’IA n’a rien d’intelligent. Elle ne sait faire que des calculs extrêmement rapides. Il y a toujours la possibilité qu’elle se trompe.

Channelnews : Alors pourquoi continuer d’utiliser le terme « intelligence », s’agissant de l’IA ?

Pierre De Loor : Il vaudrait mieux ne pas le faire. Le terme Intelligence Artificielle est un oxymore. L’intelligence ne peut pas être artificielle, d’autant plus que l’IA reproduit des biais cognitifs à partir des données injectées dans le modèle, d’où de possibles propos et images racistes et/ou sexistes générés par de l’IA. Si elle peut être très utile grâce à sa capacité de calcul, l’IA peut générer de nombreuses ‘hallucinations’.