ReutersReuters

Amazon et la startup d'IA Hugging Face s'associent pour utiliser les puces d'Amazon

L'unité cloud d'Amazon.com AMZN a annoncé mercredi un partenariat avec la startup d'intelligence artificielle Hugging Face pour faciliter l'exécution de milliers de modèles d'IA sur les puces informatiques personnalisées d'Amazon.

Évalué à 4,5 milliards de dollars, Hugging Face est devenu un centre de partage de chatbots et d'autres logiciels d'intelligence artificielle pour les chercheurs et les développeurs. Il est soutenu par (link) Amazon, Google GOOG d'Alphabet et Nvidia NVDA, entre autres. C'est le principal endroit où les développeurs se rendent pour obtenir et bricoler des modèles d'IA open-source tels que le Llama 3 de Meta Platforms META (link).

Mais une fois que les développeurs ont peaufiné un modèle d'IA libre, ils veulent généralement l'utiliser pour alimenter un logiciel. Mercredi, Amazon et Hugging Face ont annoncé qu'ils s'étaient associés pour rendre cela possible sur une puce personnalisée Amazon Web Services (AWS) appelée Inferentia2.

"Une chose très importante pour nous est l'efficacité - s'assurer qu'autant de personnes que possible peuvent exécuter des modèles et qu'elles peuvent les exécuter de la manière la plus rentable", a déclaré Jeff Boudier, responsable des produits et de la croissance chez Hugging Face.

De son côté, AWS espère inciter davantage de développeurs d'IA à utiliser ses services en nuage pour fournir de l'IA. Alors que Nvidia domine le marché de l'entraînement des modèles, AWS affirme que ses puces peuvent ensuite exploiter ces modèles entraînés - un processus appelé inférence - à moindre coût au fil du temps.

"Vous entraînez ces modèles peut-être une fois par mois. Mais vous pouvez les utiliser des dizaines de milliers de fois par heure. C'est là qu'Inferentia2 brille vraiment", a déclaré Matt Wood, qui supervise les produits d'intelligence artificielle chez AWS.

Connectez-vous ou créez un compte gratuit à vie pour lire ces nouvelles