Après la déferlante TchatGPT chez Microsoft et la réponse de Google avec Bard, c’est au tour d’Amazon d’entrer dans la compétition sur les IA génératives.  Le géant du cloud a dévoilé Amazon Bedrock, un nouveau service d’AWS, avec lequel ses clients peuvent utiliser les modèles de langage, disponibles via une API, pour créer et mettre à l’échelle leurs propres applications d’IA génératives.

Partant du principe qu’aucun modèle ne sait tout faire, Amazon choisit une approche à la carte. Il met à disposition ses nouveaux modèles formés en interne Titan, ainsi que différents modèles issus des start-ups partenaires AI21 Labs, Anthropic et Stability AI.

Dans le détail, Titan se décline en deux modèles. Le premier est un grand modèle de langage (LLM) génératif pour des tâches telles que la synthèse, la génération de texte, la classification, les questions-réponses ouvertes et l’extraction d’informations. Le second est un LMM non génératif basé sur la sémantique pour optimiser des applications de recherche ou de personnalisation.

AI21 Labs fournit ses modèles Jurassic-2, qui suivent des instructions en langage naturel pour générer du texte en espagnol, français, allemand, portugais, italien et néerlandais. Anthropic, la startup fondée par d’anciens ingénieurs d’OpenAI, apporte son modèle Claude, rival de ChatGPT mais avec des contrôles renforcés pour viser un système d’IA « honnête et responsable ». Enfin, Bedrock donne accès aux modèles « texte à image » de Stability AI, notamment au populaire générateur d’images Stable Diffusion.

Pour Amazon, ce service cloud doit permettre aux clients de trouver et d’accéder simplement aux modèles les plus adaptés, de les personnaliser selon leurs besoins et de créer des applications différenciées basées sur leurs propres données. Sur la confidentialité des données, AWS assure qu’aucune donnée client n’est utilisée pour former les modèles sous-jacents. Elles sont de plus toutes cryptées et ne quittent pas le cloud privé virtuel d’un client.

S’il ne fournit pas encore les tarifs du service, encore en avant-première limitée et avec des modèles Titan en démonstration auprès de premiers clients, Amazon déclare vouloir démocratiser l’utilisation des modèles d’IA pour les entreprises de toutes tailles. Il s’appuiera pour cela sur un réseau de partenaires, dont les cabinets Accenture, Deloitte et Infosys ainsi que les éditeurs C3 AI et Pegasystems.

AWS annonce parallèlement la disponibilité générale des instances EC2 Inf2 et Trn1n, optimisées respectivement avec ses puces Inferentia2 et Trainium. Il met en avant la réduction du coût d’exécution des charges de travail d’IA autorisées par les premières et le moindre coût de formation des modèles avec les secondes.

Dernière annonce cette fois en direction des développeurs individuels, Amazon leur rend public gratuitement CodeWhisperer, son outil d’assistance à la programmation concurrent de Copilot de Github.

« Le potentiel des modèles de fondation (FM) est incroyablement excitant. Mais nous en sommes encore aux tout premiers jours », commente dans un billet de blog Swami Sivasubramanian, vice-président en charge des bases de données, de l’analyse et du ML chez AWS. « Nous nous attendons à ce que de nouvelles architectures apparaissent à l’avenir, et cette diversité de modèles déclenchera une vague d’innovation ».