L’éditeur lyonnais Esker développe en interne une intelligence artificielle ‘frugale’ spécifique à ses besoins. Hébergée sur Microsoft Azure, cette IA générative est conçue pour extraire rapidement les données utiles de documents disparates afin d’automatiser la saisie des données de commandes.
Son modèle de langage de taille réduite, baptisé Synergy Transformer, est, selon le communiqué, « plus durable et économe en ressources » sans perdre en précision. Le taux de reconnaissance visuelle de la dernière mise à jour s’élèverait à 92%.
« Nous avions commencé à travailler sur cette technologie de « Not-So-Large Language Model » avant que ChatGPT ne soit diffusé fin 2022 », souligne Aurélien Coq, chef de produit chez Esker, auprès du MagIT.
Cette initiative d’IA frugale s’inscrit dans une tendance de fond qui consiste à concevoir de plus petits modèles d’IA, moins énergivores. A ce sujet, l’association française de normalisation Afnor a publié récemment un référentiel de méthodes et bonnes pratiques pour une IA moins gourmande en matériel et en énergie : la spec 2314. Le référentiel a pour objectif de mesurer et réduire l’impact environnemental de l’IA, notamment en ajustant la quantité de ressources mise à disposition du service. Parmi les recommandations détaillées dans la spéciale 2314 : adopter le langage de développement le plus approprié, user de code réutilisable, optimiser les équipements utilisés et confiner l’espace mémoire, les CPU et le stockage alloués.