Sous la direction de son nouveau PDG Andy Jassy, Amazon rejoint enfin la grande course aux armements technologiques de l’intelligence artificielle générative, la dernière percée en matière d’apprentissage automatique et popularisée par le succès du ChatGPT d’OpenAI. Dans sa lettre annuelle aux actionnaires publiée hier (13 avril), Andy Jassy a indiqué qu’Amazon avait développé ses propres modèles de langage de grande taille (LLM) – la technologie de base des générateurs de texte tels que ChatGPT – et qu’il promettait de poursuivre ses investissements dans ce domaine, malgré la pression constante exercée par l’entreprise pour réduire les coûts dans d’autres domaines.
Nous travaillons sur nos propres LLM depuis un certain temps déjà, et nous pensons qu’ils transformeront et amélioreront pratiquement toutes les expériences des clients”, a écrit M. Jassy.
Amazon utilise l’apprentissage automatique depuis plus de 20 ans dans un large éventail de produits et de services, note M. Jassy dans sa lettre, qu’il s’agisse de recommander des produits sur Amazon.com ou de former l’assistant vocal Alexa. Mais l’apparition de l’IA générative “promet d’accélérer considérablement l’adoption de l’apprentissage automatique”, écrit-il.
Contrairement à Google et à Microsoft, qui ont récemment lancé des chatbots d’IA destinés aux consommateurs, la stratégie d’IA générative d’Amazon se concentrera d’abord sur les entreprises par l’intermédiaire d’Amazon Web Services, sa division la plus rentable. En plus de développer son propre modèle, Amazon servira de plateforme à d’autres entreprises d’I.A. pour qu’elles puissent y appliquer leurs modèles.
Hier, Amazon a présenté Bedrock, une plateforme en nuage qui permet aux entreprises clientes de créer des applications personnalisées en utilisant des modèles de langage pré-entraînés provenant de startups d’IA de premier plan, notamment AI21, Anthropic et Stability AI. AI21 et Anthropic produisent toutes deux des générateurs de texte qui concurrencent ChatGPT, tandis que Stability AI est la société à l’origine de Stable Diffusion, un générateur d’images similaire à DALL-E d’OpenAI.
Bedrock donne également accès au modèle de fondation d’Amazon, appelé Titan. Le modèle de base (FM) est un autre terme décrivant un réseau neuronal d’IA formé sur une grande quantité de données non étiquetées.
“La plupart des entreprises veulent utiliser ces grands modèles de langage, mais les très bons modèles nécessitent des milliards de dollars pour être formés et de nombreuses années, et la plupart des entreprises ne veulent pas passer par là”, a déclaré Jassy lors d’une interview accordée hier à CNBC. “Ce qu’elles veulent donc, c’est travailler à partir d’un modèle fondamental qui est déjà grand et excellent, puis avoir la possibilité de le personnaliser pour leurs propres besoins. C’est ce qu’est Bedrock ».
Bedrock est actuellement en mode avant-première limitée et ses premiers clients seront l’éditeur de logiciels Pegasystems et les sociétés de conseil Deloitte et Accenture, a indiqué Amazon.
“Je pourrais écrire une lettre entière sur les LLM et l’I.A. générative, car je pense qu’ils seront transformateurs”, a écrit M. Jassy dans sa lettre aux actionnaires. “Mais je laisserai cela pour une prochaine lettre. Disons simplement que les LLM et l’I.A. générative vont représenter une grande affaire pour les clients, nos actionnaires et Amazon ».