Le géant silencieux de la Silicon Valley réécrit-il l’IA ?Broadcom s’est imposée comme l’architecte critique mais sous-estimé de la révolution de l’intelligence artificielle. Alors que les applications grand public d’IA dominent l’actualité, Broadcom opère dans la couche infrastructure : conception de puces personnalisées, maîtrise des technologies réseau et gestion de plateformes cloud d’entreprise. L’entreprise détient 75 % du marché des accélérateurs IA sur mesure, partenaire exclusif de Google pour ses Tensor Processing Units (TPU) et vient de signer un accord majeur avec OpenAI. Cette position de « marchand d’armes » de l’IA a propulsé Broadcom à une valorisation de 1,78 billion de dollars, en faisant l’une des sociétés de semiconducteurs les plus précieuses au monde.
La stratégie de l’entreprise repose sur trois piliers : domination du silicium personnalisé via la plateforme XPU, contrôle du cloud privé grâce au rachat de VMware, et ingénierie financière agressive. L’expertise technique de Broadcom dans des domaines critiques comme la technologie SerDes et l’encapsulation avancée de puces crée des barrières concurrentielles redoutables. L’Ironwood TPU v7 conçu pour Google offre des performances exceptionnelles grâce à des innovations en refroidissement liquide, une capacité mémoire HBM3e massive et des interconnexions optiques ultra-rapides permettant à des milliers de puces de fonctionner comme un système unifié. Cette intégration verticale du design silicium au logiciel d’entreprise génère un modèle de revenus diversifié et résistant à la volatilité du marché.
Broadcom est toutefois confrontée à des risques importants. Sa dépendance à TSMC pour la production crée une vulnérabilité géopolitique, surtout avec les tensions croissantes dans le détroit de Taïwan. Les restrictions commerciales sino-américaines ont comprimé certains marchés, même si les sanctions ont aussi concentré la demande chez les fournisseurs conformes. Par ailleurs, l’entreprise porte plus de 70 milliards de dollars de dette issus du rachat de VMware, nécessitant un désendettement agressif malgré des flux de trésorerie solides. Le passage controversé de VMware à un modèle d’abonnement, bien que couronné de succès financier, a provoqué des frictions avec les clients.
À l’horizon, Broadcom semble idéalement positionnée pour la poursuite du développement des infrastructures IA jusqu’en 2030. Le basculement vers les charges d’inférence et les systèmes d’IA « agentiques » favorise les circuits intégrés spécifiques (ASIC) au détriment des GPU généralistes — le point fort majeur de Broadcom. Son portefeuille de brevets procure à la fois des revenus de licence offensifs et une protection défensive pour ses partenaires. Sous la direction rigoureuse du PDG Hock Tan, Broadcom a démontré une efficacité opérationnelle impitoyable, ne se concentrant que sur les clients entreprise à plus forte valeur tout en cédant les actifs non stratégiques. À mesure que le déploiement de l’IA s’accélère et que les entreprises adoptent des architectures de cloud privé, la position unique de Broadcom — couvrant le silicium personnalisé, l’infrastructure réseau et les logiciels de virtualisation — en fait un facilitateur essentiel, quoique largement invisible, de l’ère de l’IA.
Aichips
L’efficacité peut-elle défier les titans de l’IA ?Google est entré stratégiquement dans la prochaine phase de la compétition en matière de matériel d’IA avec Ironwood, sa septième génération d’unités de traitement tensoriel (TPU). Allant au-delà de l’accélération générale de l’IA, Google a conçu Ironwood spécifiquement pour l’inférence – la tâche cruciale qui consiste à exécuter des modèles d’IA entraînés à grande échelle. Ce choix délibéré marque un enjeu stratégique sur « l’ère de l’inférence », où le coût et l’efficacité du déploiement de l’IA, plutôt que son simple entraînement, deviennent les facteurs dominants pour l’adoption en entreprise et la rentabilité, plaçant Google en concurrence directe avec des géants comme NVIDIA et Intel.
Ironwood offre des avancées notables tant en puissance de calcul brute qu’en efficacité énergétique, un point crucial. Sa caractéristique concurrentielle la plus marquante pourrait être son efficacité par watt, avec des teraflops impressionnants et une bande passante mémoire largement augmentée par rapport à la génération précédente. Google affirme que l’efficacité énergétique a presque doublé, s’attaquant ainsi aux défis opérationnels majeurs liés à la consommation d’énergie et aux coûts des déploiements IA à grande échelle. Cette recherche d’efficacité, combinée à une décennie d’intégration verticale dans la conception de ses TPU, permet une pile matériel-logiciel hautement optimisée, offrant potentiellement des avantages significatifs en termes de coût global d’exploitation.
En se concentrant sur l’efficacité de l’inférence et en s’appuyant sur son écosystème intégré – incluant le réseau, le stockage et des logiciels comme l’environnement d’exécution Pathways – Google vise à conquérir une part importante du marché des accélérateurs d’IA. Ironwood est présenté non seulement comme une puce, mais comme les moteurs des modèles avancés de Google, tels que Gemini, et comme la base d’un futur peuplé de systèmes d’IA complexes et multi-agents. Cette stratégie complète défie directement la domination établie de NVIDIA et les ambitions croissantes d’Intel en matière d’IA, suggérant que la bataille pour le leadership de l’infrastructure IA se recentre sur l’efficacité économique du déploiement.

