La rumeur courait déjà dans les couloirs des data centers : Nvidia ne se contente plus de vendre des puces ; elle arrose l’écosystème qui les achète. En septembre 2025, la scène s’est éclairée d’un coup : jusqu’à 100 milliards de dollars promis par Nvidia pour investir dans OpenAI et cofinancer au moins 10 gigawatts de nouvelles usines d’IA — en échange d’un statut de partenaire privilégié et, bien sûr, de commandes massives de GPU « frontier ». L’accord, phasé par tranches (10 milliards initiaux, puis le reste au rythme des déploiements), ancre un modèle où le fournisseur finance le client… qui finance le fournisseur. Autrement dit : le serpent s’achète la queue.
Dans la foulée, un autre chapitre s’est écrit : OpenAI–Oracle « Stargate » — 300 milliards de dollars de compute pour 4,5 GW d’infrastructure, vraisemblablement gorgés de GPU Nvidia, prolongent la même logique de capex subventionné par l’écosystème. Le registre grince : est-ce un tour de force industriel… ou le cœur d’une bulle ?
Le nouveau « deal » de l’IA : quand le vendeur finance l’acheteur
Depuis deux ans, Nvidia multiplie les leviers au-delà de la simple vente de silicium :
- Prises de participation et rythme d’investissement accéléré (via la maison-mère et NVentures) dans des dizaines de tours AI depuis 2023–2024, bien plus que sur les quatre années précédentes. Objectif : s’arrimer aux futurs gros consommateurs de GPU et sécuriser des débouchés.
- Programmes de stimulation d’écosystèmes (ex. 2 milliards de livres dédiés aux startups IA au Royaume-Uni) pour faire émerger des clients… et des cas d’usage gourmands en calcul.
- Partenariats d’infrastructure avec des clouds « GPU natifs » comme CoreWeave, où Nvidia a pris une participation (plusieurs centaines de millions pour ~5 % en 2024–2025, valorisée beaucoup plus haut depuis) et accordé des statuts de partenaire « élite ». Dans certains cas, des garanties d’achat de capacité excédentaire stabilisent le business du partenaire — et donc l’écoulement des futures générations de puces.
- Incitations « soft » (programme Inception, mise en réseau commerciale, co-marketing) qui ancrent les jeunes pousses sur la pile Nvidia dès le prototype.
Côté clients, la dépendance est entière : D’un OpenAI — désormais adossé à Nvidia via un investissement croisé — aux hyperscalers et licornes qui empruntent des milliards ou mettent en collatéral des stocks de GPU pour accélérer l’achat de… GPU. Dans la phrase précédente, tout est circulaire — et c’est le sujet.
Conclusion provisoire : Nvidia arbitre l’offre et une part de la demande. L’entreprise finance et structure l’écosystème qui, en retour, absorbe ses puces au rythme voulu. Stratégie brillante ? Oui. Risque de « cercle auto-entretenu » ? Aussi.
Souvenir de 2000 : quand l’argent tournait en rond
Les vétérans de la bulle Internet ont la mémoire longue. À la fin des années 1990, nombre de dot-coms gonflaient leurs revenus via des échanges croisés (publicités « round-trip » : je t’achète des bannières, tu m’en achètes autant), masqués par des tours de passe-passe comptables. La SEC a documenté ces schémas (Homestore–AOL, Time Warner), où des transactions réciproques simulaient une traction commerciale qui n’existait pas vraiment — jusqu’à ce que le financement externe se tarisse et que la bulle éclate.
Le parallèle n’est pas d’accuser Nvidia (ou OpenAI) de fraude : les mécanismes ne sont pas identiques. Mais la logique macro interpelle : quand la demande marginale d’un secteur dépend du crédit ou du capital… fourni par le vendeur lui-même ou ses alliés, on fabrique un effet de levier sur les volumes et les valorisations. Au pic de la bulle dot-com, la valorisation et les recettes de nombreux acteurs reposaient principalement sur des flux circulaires. On sait comment l’histoire s’est terminée une fois les robinets fermés.
2025 : un édifice porté par le capex (et par les promesses)
L’IA générative de 2025 tient sur des investissements d’infrastructure d’une ampleur historique : hyperscalers et champions de modèles se livrent à un rush estimé à des centaines de milliards par an (les « Big Four » américains gonflent leur capex IA trimestre après trimestre). Nvidia, première capitalisation mondiale, en est le grand bénéficiaire… et le chef d’orchestre.
Trois faits stylisent ce moment :
- OpenAI–Nvidia : 100 milliards pour 10 GW d’« AI factories », livraisons à partir du S2 2026, puces Vera Rubin en ligne de mire. OpenAI achète, Nvidia investit, chacun sécurise l’autre.
- OpenAI–Oracle : 300 milliards sur 5 ans (Stargate, 4,5 GW), casting GPU attendu. Oracle se repositionne en gros assembleur de compute, avec du Nvidia partout.
- CoreWeave : croissance debt-fuelled et adossement à Nvidia (equity + réseau + garanties de capacité), vitrine d’un HPC-as-a-Service qui vit et meurt au rythme des lignes de crédit et des lots de GPU.
Et le capital-risque ? Il reste massivement orienté IA, mais devient plus sélectif : H1 2025 bondit en montants, le nombre de deals baisse, et PitchBook parle d’un « fork in the road » — moins de projets, mises plus grosses et dépendance accrue à quelques « méga-tours ». Autrement dit : plus de concentration, donc plus de fragilité si la confiance se retourne.
Sponsored Sponsored« Petits trafics » ou politique industrielle ? (La ligne est fine)
Appelons un chat un chat : investir chez ses clients pour ancrer ses ventes futures est du capitalisme de filière — ni illégal, ni inédit. Les opérateurs télécoms l’ont pratiqué (subventionnement des terminaux), les clouds aussi (crédits, co-venturing). La différence en 2025, c’est l’échelle : dizaines à centaines de milliards déplacés, verrous technologiques (Nvidia reste sans rival crédible au sommet), et pénurie énergétique qui raréfie le GW autant que le GPU.
La tentation : s’assurer, par des mariages de capital, que les carnets de commandes restent pleins en 2026–2027, même si la demande finale (clients B2B/consommateurs d’apps IA) progresse moins vite qu’espéré. C’est précisément ce qui fait dire à certains observateurs que « ça sent la bulle » : prix d’actifs alimentés par des flux circulaires plutôt que par des revenus d’usage suffisamment larges et récurrents.
Jusqu’ici, Nvidia assume l’inverse : « le boom est loin d’être fini », l’infrastructure IA à bâtir se compte en trillions de dollars, et la demande des hyperscalers reste robuste. Peut-être. Mais plusieurs signaux de fatigue sont apparus cet été (marché plus prudent sur la trajectoire 2026, commentaires d’analystes, rotation sectorielle). Rien d’alarmant, mais assez pour poser la question : que se passe-t-il si l’élan se tasse ?
Et si les robinets se ferment ? Trois scénarios et leurs effets
Scénario A — Ralentissement « organisé » du capex IA
Les hyperscalers lissent leur cadence 2026 : projets décalés, GW livrés plus tard, mais engagements globalement maintenus. Effet : valorisations comprimées sur les purs joueurs GPU-cloud, moindre tension sur les délais de livraison, Nvidia réalloue vers d’autres clients (États, industrie, santé). Bulle ? Dégonflage lent.
SponsoredScénario B — Coup de frein macro/financier
Hausse des taux réels, fonds de VC plus frileux, banques resserrent le crédit. Les startups collatéralisent moins facilement leurs stocks de GPU, les méga-tours se raréfient. Les programmes de cofinancement (de fait) entre fournisseurs et clients ne suffisent plus. Effet : résiliation de commandes marginales, marché secondaire des GPU s’étoffe, prix se normalisent. Risque de « mini-2000 » : non pas un krach systémique, mais une purge chez les acteurs dont les revenus dépendaient excessivement de flux circulaires.
Scénario C — Accident de confiance / régulation
Antitrust sur concentration des chaînes d’approvisionnement, régulation énergétique ou environnementale sur les data centers, retards réseaux/électricité. Effet : chantiers gelés, capex reprofilé, montée des alternatives (ASIC spécifiques, partiellement non-Nvidia). Là, la bulle peut éclater localement (certaines zones/projets) tout en laissant le cœur de la demande (inférence, IA « pratique ») relativement solide.
« Comme en 2000 » ? Oui et non.
Oui, parce qu’on retrouve les trois ingrédients d’une bulle :
- Liquidité abondante concentrée sur une histoire (l’IA),
- Boucles d’auto-renforcement (investir chez ses clients pour mieux leur vendre),
- Narratif de rupture (« l’IA va réécrire l’économie ») qui pousse à sous-pondérer les revenus présents au profit de promesses futures.
Non, parce que l’utilité de l’IA est déjà tangible dans des pans entiers (médical, R&D, dev, copilotage, fraude, logistique), et que les usages d’inférence (moins gourmands que l’entraînement frontier) ancrent une demande de longue traîne. Les dot-com aussi avaient de l’utilité… mais pas les marges pour la payer. La question 2025 n’est pas « l’IA sert-elle ? » mais « les modèles d’affaires absorbent-ils le coût du compute à cette cadence ? »
Sponsored SponsoredCe qu’il faut surveiller (les baromètres anti-bulles)
- Guidances capex des Big Tech (et leurs révisions). Si 2026 glisse visiblement, c’est le premier clignotant.
- Prix et disponibilité des GPU d’occasion (H100/H200/B200) et délais de livraison. Un marché secondaire qui s’étoffe = demande marginale qui faiblit.
- Qualité des revenus des clouds GPU (part usage réel vs contrats sponsorisés/garantis). CoreWeave & co restent l’étalon à décoder.
- Données VC : montants vs nombre de deals. Si les tours gonflent mais se concentrent encore, la fragilité s’accroît.
- Procédures & régulation : antitrust/infrastructures, contraintes énergétiques régionales.
- Équilibre entraînement ↔ inférence : si l’entraînement ralentit mais que l’inférence compense, l’atterrissage peut être doux.
Retour au duo Nvidia–OpenAI : synergie… et dépendance
Revenons au fait du jour : Nvidia–OpenAI. Industriellement, c’est cohérent : OpenAI sécurise l’accès au meilleur stack (GPU + réseaux + logiciel), Nvidia verrouille un client hors norme sur la prochaine génération (Vera Rubin) et capte une part de la valeur via l’equity. Financièrement, c’est un pari colossal sur la vitesse : livrer 10 GW d’ici 2026–2027 suppose énergie, permis, terre, réseaux et talents là où tout manque. Si le capex global se tasse, l’équation peut passer de « flywheel » à « frein moteur ».
D’où la question qui fâche : sommes-nous en train de confondre la croissance organique des usages IA avec une croissance capitalisée par des accords circulaires ? En 2000, ce glissement s’appelait round-tripping (jusqu’à la fraude chez certains). En 2025, il s’appelle vendor financing, equity croisé, garanties de capacité. Ce n’est pas illégal ; c’est risqué si la demande finale n’arrive pas à temps.
Verdict (provisoire) : oui, ça sent la bulle — mais elle n’est pas condamnée à éclater
Oui, parce qu’un écosystème où le vendeur investit massivement chez ses acheteurs pour accélérer des achats de ses propres produits amplifie mécaniquement les volumes et les valorisations. Oui, parce que les méga-annonces (100 Md$ ici, 300 Md$ là) déplacent la boussole des investisseurs vers des promesses à horizon 2026–2028. Oui, parce que le crédit autour des GPU (emprunts gagés, dettes d’infra) met de la poudre dans le baril.
Mais la différence avec 2000 est réelle : l’IA résout déjà des problèmes concrets, automatise des tâches et vaut une partie des budgets annoncés. Si l’inférence prend le relais de l’entraînement frontal, si les modèles trouvent leur product-market fit dans l’entreprise, et si les coûts unitaires baissent assez vite, la bulle peut se dégonfler sans éclater.
Traduction pour 2025 : tant que les capex hyperscalers tiennent (et qu’OpenAI exécute ses chantiers), Nvidia peut piloter un atterrissage en douceur. Si, à l’inverse, le robinet se ferme trop vite, les boucles (equity ↔ commandes ↔ crédit) deviendront des chaînes, et le marché redécouvrira la gravité.
À court terme, la balle est dans le camp des flux réels : utilisateurs payants, workloads qui restent au-delà de l’effet de mode, économies réalisées chez les clients finaux. À moyen terme, surveillez la déformation du mix : moins d’entraînement gargantuesque, plus d’inférence rentable ? C’est cette bascule qui dira si 2025 ressemble au printemps 1999… ou à l’été 2001.
La morale de l’histoire: même les arbres ne montent pas jusqu’au ciel.