Amazon veut rendre l’IA fongible

Andy Jassy, CEO d'Amazon, à la conférence d'AWS

De nouveaux modèles Nova, de nouvelles puces Trainium, un « ultracluster » pour Anthropic… Lors de sa conférence re:Invent, qui se tient depuis le début de la semaine à Las Vegas, AWS a multiplié les annonces. Avec une direction stratégique claire : réunir toutes les composantes nécessaires à la production de l'IA générative, pour un futur où les modèles perdent de leur importance. Et Anthropic comme assurance.

Amazon a développé en interne près de 1 000 applications basées sur l'IA générative” a déclaré Andy Jassy, CEO d’Amazon, à l’ouverture de la conférence AWS re:Invent, qui se tient toute cette semaine à Las Vegas. Le géant en tire trois enseignements principaux, sur les coûts, les applications et les modèles.

Un “ultracluster” à 8 milliards

Tout d’abord, à grande échelle, les coûts de calcul deviennent un facteur déterminant. Amazon développe en ce moment même le plus grand cluster de calcul IA au monde en partenariat avec Anthropic, en utilisant ses puces d’IA Trainium 2, dans le cadre d’un investissement global de 8 milliards de dollars (environ 7,3 Md€). L’optimisation de ces coûts devient évidemment cruciale pour améliorer la performance et réduire les dépenses. La puce Trainium 3 promet d’améliorer le rapport prix/performance de 30 % à 40 % par rapport aux instances actuelles, principalement Nvidia Hopper. Mais AWS déploiera aussi, bien sûr, des GPU Blackwell de Nvidia.

Deuxièmement, construire une application d’IA générative de qualité nécessite plus qu’un bon modèle : encore faut-il intégrer des garde-fous de sécurité (guardrails), une interface fluide, une latence optimale et une structure de coûts adaptée. La conception reste complexe, et une expérience incomplète ou défaillante n’est pas acceptable pour les utilisateurs. Les équipes internes d’Amazon expriment un besoin toujours croissant d’améliorations, notamment en termes de latence, de coût, de personnalisation et d'orchestration de données.

Modèles sur étagère

De plus, Amazon a observé une grande diversité dans l’utilisation des modèles au sein de ses équipes, allant de ceux d’Anthropic, Llama et Mistral à des modèles développés en interne. Amazon les a partiellement rendus publics, sous le nom de Nova. Dans cette nouvelle famille de modèles d’IA multimodaux, Nova Lite et Pro intègrent du texte, des images et des vidéos. Pro, classé par Livebench au-dessus de Claude 3.5 Haiku, veut offrir un bon équilibre entre précision et coût. Nova Micro, optimisé pour la rapidité et le coût, traite uniquement du texte. La série inclut également Nova Canvas, pour générer et éditer des images, et Nova Reel, pour des vidéos courtes de six secondes, toutes deux dotées de watermarks (filigranes) pour une utilisation responsable. Un modèle de conversion vocale et un modèle universel multimodal sont prévus en 2025, ainsi que Nova Premier, en début d’année, dédié aux tâches complexes et à la personnalisation avancée.

Les modèles Nova seront exclusivement disponibles sur Bedrock, qui se voit également doté de nouvelles capacités d'évaluation RAG et LLM-as-a-judge, pour une évaluation efficace des modèles d'IA et des applications, ainsi que de nouvelles API pour améliorer les applications RAG (retrieval-augmented generation). Il permet l’intégration sur différentes bases, le fine-tuning des modèles, l’orchestration des agents… Tout comme AWS donne accès aux puces des autres constructeurs aux côtés des Graviton, Bedrock propose les modèles du marché – et désormais les siens.

Quatrième pilier

L’IA s’installe ainsi comme la quatrième grande composante des services d’AWS, aux côtés du calcul, du stockage et des bases de données. Sa stratégie affichée est de donner aux développeurs accès au plus large choix de “briques” pour la construction de leurs applications. Pour l’heure, la qualité des modèles prime encore, et de loin. Mais dans l’hypothèse où, à l’avenir, aucun outil unique ne domine, comme cela a été le cas dans d'autres domaines technologiques, le choix s’imposera alors sur le prix, la performance, la flexibilité, les coûts de migration des données.

En ce cas, Amazon aura gagné. Et si Andy Jassy se trompe, il lui restera Anthropic, qui fait la course en tête parmi les grands modèles.

Pour en savoir plus :

L’essentiel