👾 Accélération de l'IA - Partie 1 : Vision à court terme

Vision à court terme sur l'accélération de l'IA et ses impacts sociétaux jusqu'en 2035.

Résumé Exécutif [1] [2] [3] [4] [5]

L'essai de Matt Shumer de février 2026 « Something Big Is Happening » soutient qu'un « changement d'urgence » notable s'est produit parce que les laboratoires de pointe livrent désormais des modèles agentiques capables d'effectuer des travaux de longue durée avec des outils, et--de manière cruciale--sont utilisés dans les boucles de R&D de leurs propres créateurs, créant une itération plus rapide vers une capacité de type AGI (ou au-delà) que la plupart des institutions ne peuvent absorber. Une vérification de la réalité à court terme (février 2026) soutient la prémisse d'« accélération »--en particulier dans le codage, les flux de travail agentiques et le travail de connaissance professionnelle--tout en montrant encore des limites strictes en matière de fiabilité, de raisonnement exact à haute complexité et de fonctionnement autonome sûr sans garde-fous. Le moteur le plus « imparable » n'est pas seulement la pression commerciale mais le cadrage explicite de sécurité nationale de la compétition États-Unis-Chine : les grands gouvernements décrivent le leadership en IA comme une domination stratégique, ce qui crée de fortes incitations à la défection (dynamiques de course) et affaiblit la plausibilité de pauses significatives. La contrainte à court terme sous-estimée--et accélérateur--est la puissance physique et l'infrastructure : capacité du réseau, files d'interconnexion, transformateurs/sous-stations, permis de transmission, refroidissement/eau, implantation de terrains et structures d'approvisionnement énergétique (par exemple, « apportez votre propre génération ») qui déterminent de plus en plus qui peut faire évoluer l'IA et où. Légalement, « l'IA devenant illégale » est peu probable dans un sens général d'ici 2035 ; au lieu de cela, le système devient illégal selon des utilisations spécifiques, des contextes de déploiement, des échecs de sécurité/conformité et des contrôles transfrontaliers--avec des « lignes claires » à court terme déjà actives dans l'UE (pratiques interdites depuis février 2025 ; obligations échelonnées pour les modèles à usage général jusqu'en août 2026/2027), et des régimes d'expansion des contrôles à l'exportation et au niveau des États aux États-Unis, tous compliqués par la course aux armements.

Source d'Ancrage [1] 

Matt Shumer a publié « Something Big Is Happening » vers le 9 février 2026 et l'a présenté comme un point d'inflexion une fois par génération--comparant explicitement le moment à la réalisation que « quelque chose d'énorme » est en cours et que la plupart des gens agissent encore comme si le changement était dans des années. Son affirmation principale est que les récentes versions de pointe (il souligne les lancements de modèles du 5 février) lui ont rendu personnellement indéniable que l'IA progresse vers une ère où elle peut exécuter un travail significatif avec une supervision humaine minimale, y compris des tâches qui ressemblent à du « jugement/goût » plutôt qu'à une simple autocomplétion. [1] 

Le « coup de poing » le plus viral de Shumer est le changement de flux de travail vécu : « Je ne suis plus nécessaire pour le travail technique réel. Je décris le résultat que je veux et il apparaît. » Il soutient que ce n'est pas une astuce de développeur de niche mais un aperçu du déplacement généralisé des cols blancs une fois que les organisations réoutillent les flux de travail autour des systèmes agentiques. [6]

Sur la viralité et la portée plus large, les grands médias ont rapporté que l'essai s'est rapidement propagé sur les réseaux sociaux et a été recirculé par les médias d'affaires ; un rapport l'a décrit comme atteignant des dizaines de millions de vues (par exemple, « plus de 80 millions de vues » sur X, selon le scraping/temps mesuré), indiquant qu'il a fonctionné comme un document de « réveil » public plutôt qu'un message purement technique. [1]

Shumer ancre le changement d'urgence aux versions du 5 février : le modèle de codage agentique d'OpenAI (GPT‑5.3‑Codex) et le nouveau produit phare d'Anthropic (Claude Opus 4.6), les présentant comme preuve que les « capacités sont arrivées » et que les conséquences économiques et géopolitiques sont maintenant sur une horloge à court terme (2026-début des années 2030), pas une horloge d'avenir lointain. [7]

Il souligne également une boucle de rétroaction renforçante : les laboratoires de pointe utilisent de plus en plus des modèles de pointe pour accélérer la création, l'évaluation, le déploiement et le travail de sécurité autour des modèles suivants--une dynamique interne de « composition » qui (si elle continue) compresse les délais.

  🚀 Échelle de Calcul d'Entraînement de l'IA -- Données Historiques & Projections Divergentes jusqu'en 2035 (Échelle Logarithmique)   Sources : Epoch AI, OpenAI, Anthropic -- Les projections divergent à partir de 2026 : estimations Basses (conservatrices) vs Hautes (agressives). FLOPs = opérations en virgule flottante.
  

Vérification de la Réalité Technologique

À quoi ressemble réellement la « capacité de février 2026 » en pratique [2] [7]

Le codage agentique et les flux de travail basés sur des outils sont la fonction d'étape la plus claire. La carte système GPT‑5.3‑Codex d'OpenAI le décrit comme le modèle de codage agentique le plus performant qu'elle ait livré, conçu pour des tâches de longue durée impliquant la recherche, l'utilisation d'outils et l'exécution complexe, et note qu'il peut être dirigé « comme un collègue » sans perdre le contexte. OpenAI signale également un point interne pivot : c'est la première carte système décrivant un modèle de pointe comme « instrumental » dans sa propre création (via des versions antérieures utilisées dans les flux de travail de développement), ce qui est une version concrète et étroite de « l'amélioration récursive » (dirigée par l'homme, médiée par des outils, mais toujours composée). [2] 

La posture de sécurité en février 2026 reconnaît implicitement une croissance de capacité dangereuse. OpenAI déclare que GPT‑5.3‑Codex est traité comme « Capacité élevée » en biologie et (par précaution) « Capacité élevée » en cybersécurité selon ses garde-fous du Cadre de Préparation, tout en déclarant qu'il n'atteint pas « Capacité élevée » sur l'auto-amélioration de l'IA. Cette combinaison est importante : elle suggère que le risque à court terme est moins « le modèle s'améliore de manière autonome » et plus « le modèle augmente matériellement la capacité humaine (et organisationnelle) dans des domaines à enjeux élevés », en particulier les opérations cybernétiques. [2] 

Quantitativement, le saut est visible sur au moins certaines évaluations cybernétiques internes. Dans la carte système d'OpenAI, GPT‑5.3‑Codex est montré surpassant les modèles de comparaison précédemment répertoriés sur un taux de réussite combiné « Cyber Range » (80 % contre des références plus basses). Même en prenant les évaluations internes avec prudence, la direction est cohérente avec les rapports généraux selon lesquels la défense et l'attaque cybernétiques font partie des applications « agentiques » les plus rapides. [8] [9]

Du côté d'Anthropic, Claude Opus 4.6 est positionné comme un modèle de raisonnement hybride avec « des capacités avancées dans le travail de connaissances, le codage et les agents », et Anthropic cite de solides performances sur les benchmarks de travail professionnel dans ses documents de lancement. Le cadrage du « risque de sabotage » post-lancement d'Anthropic est particulièrement révélateur : il définit le « sabotage » comme une altération ou manipulation autonome des systèmes/décisions d'une organisation qui augmente le risque catastrophique, et--bien que concluant que le risque global est « très faible mais non négligeable »--il note également explicitement qu'Opus 4.6 est largement utilisé au sein d'Anthropic pour le codage, la génération de données et les cas d'utilisation agentiques.

« Jugement/goût » et prise de décision autonome : qu'est-ce qui est réel vs qu'est-ce qui est battage médiatique [10] [11]

Le cadrage « jugement/goût » de Shumer s'aligne sur deux tendances mesurables : (1) un meilleur suivi des instructions et des taux d'hallucination réduits dans les nouveaux modèles de pointe, et (2) un comportement à long horizon plus cohérent sous utilisation d'outils. OpenAI traite explicitement les hallucinations comme un défi fondamental restant même tout en signalant des réductions dans les modèles de la famille GPT‑5. [12] 

Mais les effondrements de fiabilité apparaissent toujours sous certaines formes de complexité, en particulier le raisonnement algorithmique/exact. Une ligne de travaux de recherche d'Apple largement citée (« L'Illusion de la Pensée », juin 2025) trouve que les « modèles de raisonnement » peuvent montrer un avantage à complexité moyenne mais connaître un « effondrement complet » à complexité supérieure, avec un raisonnement incohérent et l'échec à appliquer des algorithmes explicites de manière fiable. C'est un contrepoids clé aux récits « AGI dans un an » : de nombreuses tâches économiquement précieuses nécessitent non seulement un texte plausible, mais une exécution fiable dans des cas limites, des contraintes changeantes et des conditions adverses.

Robotique et agence physique : le « pont » 2026-2030 qui détermine la vitesse de perturbation du monde réel [13]

Dans la fenêtre à court terme que Shumer souligne, les robots comptent parce qu'ils convertissent la capacité cognitive en agence physique, élargissant l'automatisation du « travail sur écran » à la logistique, la fabrication et éventuellement les services.

Plusieurs signaux de 2024-février 2026 montrent que la pile incarnée progresse, bien qu'inégalement : [14]

Boston Dynamics a déclaré début 2026 qu'elle commençait la fabrication d'une version produit de son humanoïde Atlas, avec des déploiements en 2026 prévus chez Hyundai et Google DeepMind, et qu'Atlas sera formé en utilisant de nouvelles approches de modèle de fondation pour les tâches industrielles. [15]

BMW a rapporté en septembre 2024 que Figure 02 humanoïde de Figure était testé à l'usine BMW Group Plant Spartanburg dans un environnement de production réel, y compris des spécifications physiques déclarées (hauteur, poids, capacité de charge), signalant une adoption précoce de « pilote d'usine ». [16]

Reuters a rapporté en 2025 que Mercedes-Benz a investi dans Apptronik et testé des robots humanoïdes « Apollo » dans des usines, décrivant une voie où la téléopération forme initialement des tâches que le robot apprend ensuite à effectuer de manière plus autonome. [17]

Du côté de la recherche, les travaux 2024-2025 sur les politiques robotiques généralistes (par exemple, OpenVLA formé sur ~970k démonstrations de robots du monde réel ; ensembles de données Open X‑Embodiment permettant le transfert entre robots) indiquent une véritable tentative de « LLM-ifier » la robotique via l'échelle vision-langage-action--tout en reconnaissant ouvertement les défis d'adoption et le besoin d'un réglage fin efficace et de généralisation. [14]

La prévision robotique à court terme la plus crédible n'est pas « des humanoïdes partout d'ici 2027 », mais : le travail sur écran perturbe d'abord (2026-2030), et la perturbation du travail physique s'accélère à mesure que les robots deviennent plus fiables, moins chers et plus faciles à déployer dans des environnements contraints (usines, entrepôts) avant les environnements à monde ouvert. Cela correspond au schéma des pilotes industriels (BMW/Figure ; Mercedes/Apptronik ; déploiements prévus en 2026 de Boston Dynamics) plutôt qu'à une explosion soudaine de robots grand public.

Plages de délais d'experts (2026-2035) versus l'urgence « quelques années » de Shumer

Les vues « AGI bientôt » à court horizon sont maintenant exprimées par plusieurs leaders de pointe, mais avec des mises en garde importantes et une ambiguïté définitionnelle : [18] 

Dario Amodei a écrit en février 2025 que « peut-être d'ici 2026 ou 2027 » les capacités de l'IA peuvent ressembler à un « pays de génies dans un centre de données », soulignant l'urgence et les implications à l'échelle nationale. [19] [13]

Sam Altman en juin 2025 a prévu une progression par étapes : 2025 comme l'arrivée d'agents effectuant un véritable travail cognitif, 2026 comme des systèmes trouvant de « nouvelles idées », et 2027 comme des robots effectuant des tâches du monde réel--un calendrier implicitement rapide cohérent avec le cadrage d'urgence de Shumer. [14] [20]

Demis Hassabis a cité à plusieurs reprises une plage AGI d'environ 5-10 ans, tout en soulignant les lacunes actuelles comme l'apprentissage continu, la planification à long horizon et la cohérence. [19] [21]

Yann LeCun a soutenu que l'IA de niveau humain « prendra des années, voire des décennies », et que les paradigmes actuels (en particulier les approches centrées sur les LLM) sont insuffisants sans modèles de monde plus profonds. [22] [23]

Geoffrey Hinton a publiquement donné une large bande de 5-20 ans et de faible confiance pour que l'IA dépasse les humains, soulignant une véritable incertitude même parmi les meilleurs chercheurs. [2]

  🧠 Chemin vers l'AGI -- Estimations de Délais d'Experts   Basé sur des déclarations publiques de chercheurs en IA de premier plan, 2024-2026   

En résumé pour 2026-2035 : La thèse « quelques années » de Shumer est plausible pour une automatisation agentique transformationnelle de grandes parties du travail de connaissances (et pour une performance de type « AGI » dans des domaines limités). Une AGI robuste, largement fiable, auto-dirigée de manière autonome qui se généralise en toute sécurité dans des paramètres à monde ouvert reste beaucoup moins certaine--même sur des calendriers haussiers--parce que la fiabilité, l'alignement et l'interaction avec le monde physique restent des contraintes contraignantes.

Impacts Économiques & sur l'Emploi

Ce que disent les meilleures données 2024-février 2026 sur l'exposition et la perturbation [24] 

L'estimation de base la plus largement citée reste que environ 40 % de l'emploi mondial est exposé au changement piloté par l'IA, avec une exposition plus élevée dans les économies avancées en raison de la prévalence des emplois de tâches cognitives, et un risque substantiel que l'IA aggrave les inégalités sans réponse politique. Ce n'est pas une prévision de « 40 % de chômage », mais c'est un indicateur crédible que le travail de connaissances n'est plus structurellement protégé. [25]

Le Forum Économique Mondial rapporte que de nombreux employeurs s'attendent à des réductions de la main-d'œuvre là où l'IA peut automatiser des tâches (par exemple, son rapport de 2025 souligne que 40 % des employeurs s'attendent à réduire la main-d'œuvre là où l'IA peut automatiser des tâches), tout en projetant simultanément la création et le déplacement d'emplois jusqu'en 2030--c'est-à-dire le brassage et la reclassification plus qu'un seul précipice. [26]

L'OIT (indice affiné 2025) continue de constater que l'exposition est fortement concentrée dans certains groupes professionnels (notamment le travail administratif/de bureau), avec des implications sexospécifiques car les femmes sont surreprésentées dans ces rôles dans de nombreuses économies.

  👷 Impact de l'IA sur l'Emploi par Secteur -- Sélecteur d'Année Interactif   Sources : WEF Future of Jobs 2025, FMI, OIT -- Pertes d'emplois affichées en négatif (rouge), nouveaux emplois en positif (vert)           Sélectionner l'Année : 2026                 2025       2028       2031       2035        

Pourquoi la « perturbation des cols blancs d'ici fin 2026/début des années 2030 » de Shumer est plausible--et pourquoi le calendrier est encore incertain

Deux forces tirent dans des directions opposées : [18]

Les capacités et les incitations s'accélèrent. Des leaders de haut niveau prédisent maintenant ouvertement le remplacement proche de gros morceaux de travail de cols blancs. Mustafa Suleyman a récemment soutenu que l'IA pourrait atteindre des performances de niveau humain sur la plupart des tâches professionnelles dans environ ~12-18 mois (tel que rapporté), une affirmation [27] [28]

alignée avec l'urgence de Shumer--même si elle s'avère exagérée. Dans le même temps, plusieurs déclarations de PDG soulignent le risque pour les cols blancs, en particulier pour les rôles de niveau débutant, qui sont souvent plus routiniers et plus faciles à « agentiser ». [22] [29]

Mais la transformation d'entreprise est souvent lente et sujette aux échecs. Le cadrage MIT « GenAI Divide » (largement couvert en 2025) soutient que si l'adoption est répandue, l'intégration transformationnelle dans les flux de travail est rare, avec de nombreux pilotes ne parvenant pas à produire un impact P&L mesurable. Plusieurs enquêtes à grande échelle montrent de même une « utilisation » signalée très élevée de l'IA mais des preuves limitées de changement opérationnel profond dans la plupart des entreprises--suggérant un décalage entre la capacité du modèle et le déplacement de la main-d'œuvre macroéconomique. [22]

Cela crée un schéma réaliste à court terme jusqu'à ~2030 : (1) ralentissements de l'embauche et réduction par attrition dans les rôles routiniers de cols blancs, (2) productivité « assistée par agent » qui augmente la production par travailleur, et (3) vagues de déplacement périodiques une fois qu'un petit ensemble de « flux de travail d'agent » reproductibles deviennent standardisés.

Rentabilité des entreprises dans un scénario de chômage élevé : le piège du côté de la demande

Une préoccupation centrale dans le discours adjacent à Shumer est : Si l'IA remplace les travailleurs, qui achète les produits ? L'économie ne donne pas de réponse déterministe unique, mais les travaux 2024-2025 clarifient la tension : [30] [31]

Daron Acemoglu soutient que les gains de productivité macroéconomiques de l'IA peuvent être modestes sur une décennie sous des hypothèses réalistes basées sur les tâches (sauf si l'IA s'élargit à de nombreuses tâches et est déployée efficacement), ce qui implique que certains récits de « profits de l'IA » peuvent être prématurés ou inégaux. [32]

L'analyse de l'OCDE cadre de même les contributions plausibles de croissance de la productivité comme significatives mais pas magiques, et souligne l'importance des contraintes de diffusion/adoption. [33]

La modélisation du FMI sur l'adoption de l'IA et les inégalités suggère que les effets d'inégalité de richesse peuvent être prononcés lorsque les décisions d'adoption et les rendements du capital concentrent les avantages, ce qui est cohérent avec un monde où les profits peuvent augmenter même si le pouvoir de négociation du travail chute--au moins pendant un certain temps. [22]

Donc le tableau de rentabilité à court terme (2026-2035) est susceptible d'être bifurqué : les leaders du secteur qui marchandisent avec succès les flux de travail à forte intensité de main-d'œuvre peuvent voir une expansion des marges, tandis que de nombreuses autres entreprises font face à des goulots d'étranglement d'intégration, un risque de réputation/qualité et une fragilité du côté de la demande si les revenus des ménages chutent.

Inégalité et « qui paie » : pourquoi les coûts énergétiques sont un canal direct de la classe ouvrière

Même avant toute pointe de chômage dramatique, la hausse des charges de coûts des ménages peut fonctionner comme des « multiplicateurs d'inégalité silencieux ». Plusieurs indicateurs 2024-février 2026 montrent que la pression des coûts d'électricité est réelle et--important--liée au même développement d'infrastructure permettant l'échelle de l'IA : [34]

Les prix moyens de l'électricité résidentielle aux États-Unis ont augmenté d'une année sur l'autre (par exemple, les augmentations rapportées par l'EIA autour de la période de novembre 2025), dépassant l'inflation globale dans plusieurs analyses, resserrant les budgets pour les ménages à faible revenu qui dépensent une part plus élevée sur les services publics. [35]

En Europe, Eurostat montre que les prix de l'électricité pour les ménages sont restés relativement stables de fin 2024 à début 2025 à des niveaux élevés post-crise, avec une part importante due aux coûts de réseau et aux structures changeantes de subvention/fiscalité--exactement les catégories qui peuvent augmenter à mesure que les mises à niveau du réseau s'accélèrent pour de grandes charges comme les centres de données. [33]

En bref : si l'économie de l'IA à court terme devient « intensive en capital et en électricité », la classe ouvrière peut être touchée deux fois--par la pression du marché du travail et par des coûts énergétiques/de réseau plus élevés qui financent le substrat physique de l'échelle de l'IA.

Course à l'Énergie & l'Infrastructure

La « course à l'échelle de l'IA » est maintenant visiblement contrainte--et propulsée--par l'économie physique : génération d'électricité, transmission, sous-stations/transformateurs, refroidissement/eau, terrain et permis. C'est là que « pas assez de puissance restante sur le réseau » cesse d'être une métaphore et devient des positions de file d'attente, des moratoires et des dossiers de tarifs.

La pointe de charge : ce que disent les prévisions faisant autorité d'ici 2030 et 2035 [9] [36]

L'Agence Internationale de l'Énergie prévoit une croissance rapide de la demande d'électricité des centres de données : environ 15 % par an (2024-2030) avec une consommation mondiale des centres de données doublant à ~945 TWh d'ici 2030 dans son scénario de base. [37]

Séparément, l'analyse Electricity 2024 de l'AIE a averti que la consommation d'électricité des centres de données/IA/crypto pourrait atteindre >1 000 TWh d'ici 2026 (mondial). [23] [38]

Aux États-Unis, l'U.S. Energy Information Administration a prévu une consommation d'électricité record pour 2025 et 2026, citant explicitement une demande accrue des centres de données (y compris l'IA et la crypto) comme moteur.

  ⚡ Demande Mondiale d'Énergie des Centres de Données (TWh)   Sources : Rapport AIE Énergie & IA 2025, Goldman Sachs, EIA -- Basculer entre la répartition par source d'énergie et les vues réseau vs génération privée.                  🔋 Sources d'Énergie                 ⚡ Réseau vs Privé           

Les contraintes du réseau ne sont pas abstraites : les opérateurs repensent les règles d'accès autour des centres de données

Les opérateurs de réseau et les autorités de fiabilité traitent les « grandes charges » (centres de données, hydrogène, électrification) comme un nouveau régime de planification plutôt qu'une demande progressive. [4] [39]

L'Entreprise Nord-Américaine de Fiabilité Électrique Évaluation de Fiabilité à Long Terme 2024 souligne que les « charges importantes émergentes » comme les centres de données (y compris la crypto et l'IA) créent des défis uniques de prévision et de planification, et documente des projections de croissance de la demande structurellement plus élevées. [19] [4]

Dans la région PJM, les prévisions de charge incorporent une forte croissance pilotée par les centres de données ; la mise à jour de janvier 2026 de PJM s'attend à ce que la charge de pointe estivale grimpe considérablement au cours de la prochaine décennie et plus. PJM évolue également vers des règles qui accommodent explicitement (et nécessitent effectivement) des solutions de grande charge comme « apportez votre propre génération » et une réduction basée sur « connecter et gérer », reflétant la réalité que le processus de file d'attente hérité ne peut pas servir des interconnexions illimitées à l'échelle du gigawatt rapidement. [22]

En Irlande, où la contrainte du réseau est déjà une question de politique nationale, la Commission de Régulation des Services Publics a publié une décision le 9 février 2026 mettant à jour la politique de connexion pour les centres de données--reconnaissant fonctionnellement que la forte croissance des centres de données doit être subordonnée aux règles de stabilité du réseau, et formalisant [40] [41]

les contraintes après des années de limitation de facto. Les analystes ont rapporté que les centres de données représentaient ~22 % de la consommation d'électricité de l'Irlande en 2024, illustrant comment « l'infrastructure de l'IA » peut devenir une charge nationale au niveau du système, pas un client marginal.

La pile de goulots d'étranglement : transformateurs, sous-stations, transmission, refroidissement/eau, terrain

Les bloqueurs les plus immédiats à l'échelle de l'IA sont de plus en plus non pas les GPU, mais l'équipement de réseau et l'implantation :

Un rapport de laboratoire gouvernemental américain (NREL, FY2024) note que les services publics font face à des délais de livraison de transformateurs prolongés allant jusqu'à [42]

~2 ans (une augmentation de ~4× par rapport à avant 2022), et des augmentations de prix de 4-9× ces dernières années, motivées par les contraintes de chaîne d'approvisionnement et de matériaux (acier électrique à grains orientés, cuivre/aluminium), la main-d'œuvre et la demande refoulée. [43]

Les rapports Reuters en 2025 ont de même averti de pénuries d'approvisionnement en transformateurs, renforçant que c'est une contrainte structurelle, pas un problème mineur d'approvisionnement. [44]

Les files d'attente de transmission et d'interconnexion restent des problèmes de plusieurs années. Les réponses politiques américaines (réformes de permis du DOE ; règles de planification de transmission de la FERC ; grands plans de dépenses en capital des services publics) sont explicitement présentées comme nécessaires pour répondre à la demande croissante et au risque de fiabilité. [45]

La saturation locale du réseau laisse déjà des actifs construits inactifs : des rapports de Santa Clara, Californie ont décrit de grands centres de données terminés assis inutilisés parce que le service public municipal ne pouvait pas fournir suffisamment d'énergie jusqu'à ce que les mises à niveau soient terminées (avec des délais s'étendant vers 2028). C'est exactement la réalité « pas assez de puissance restante sur le réseau », opérationnalisée comme retard et capital échoué. [46] [30]

Le refroidissement et l'eau sont maintenant des contraintes politiques. AP a rapporté que Tucson a adopté des ordonnances pour exiger des plans de conservation et un examen public pour les très gros utilisateurs d'eau après une controverse sur un projet de centre de données ; des restrictions similaires existent dans d'autres municipalités de régions arides. Des enquêtes ont également documenté que de grandes entreprises technologiques construisent des centres de données dans des régions pauvres en eau dans le monde, intensifiant le risque d'opposition locale. [47]

Les pressions d'utilisation des terres et le contrecoup communautaire sont de plus en plus matériels : les conflits dans l'expansion des centres de données du nord de la Virginie (bruit, pollution des générateurs diesel, empiètement sur des sites historiques) montrent que l'implantation peut devenir un combat social et juridique de plusieurs années--ralentissant les déploiements même lorsque le capital est abondant.

Diagramme causal : comment la « course à la puissance » entraîne à la fois l'accélération et la réaction

Cette boucle explique pourquoi l'échelle de l'IA peut sembler « incontrôlée » : les contraintes n'arrêtent pas nécessairement la croissance ; elles la redirigent -- hors réseau, relocalisation, exceptions réglementaires -- souvent de manières qui intensifient le conflit de distribution.

La « course à la puissance » : pourquoi elle accélère l'IA tout en créant des points de blocage

La course à la puissance a une structure auto-renforçante : [48] [36]

  1. La demande d'IA incite les services publics et les investisseurs à financer de grandes extensions, souvent justifiées publiquement comme fiabilité et développement économique. Les rapports récents de Reuters montrent que les services publics élargissent les plans de dépenses en capital sur plusieurs années explicitement en raison de la croissance de la charge des centres de données et de l'intérêt des clients « grande charge » mesuré en dizaines de gigawatts. [4]

  2. Les opérateurs de réseau adaptent les règles de marché pour admettre de grandes charges plus rapidement, déplaçant le risque vers la réduction et l'approvisionnement en génération privée. [49]

  3. Ceux qui ont le capital et l'accès politique sécurisent d'abord la puissance, via l'approvisionnement direct, la génération dédiée ou des positions de file d'attente avantageuses--approfondissant les fossés concurrentiels pour les fournisseurs d'IA de pointe. [50]

  4. Les ménages et les petites entreprises peuvent subir une pression tarifaire par le biais des coûts de construction du réseau, des marchés de capacité et de la dynamique des prix des carburants--en particulier dans les régions contraintes.

C'est pourquoi l'énergie est à la fois un accélérateur (permet l'échelle) et un point de blocage (équipement, permis, acceptation communautaire, pénurie d'eau). Cela explique également pourquoi la course aux armements est « physique » : le bord d'attaque est maintenant un concours de mégawatts, sous-stations et permis autant que d'algorithmes.

Capacité Sociétale & d'Ajustement

Décalage de vitesse : cycles d'itération de modèles versus institutions humaines

La préoccupation de Shumer selon laquelle la société ne peut pas s'adapter rapidement est fondée sur un décalage concret : les modèles de pointe peuvent s'améliorer sur des cycles de plusieurs mois, tandis que les mises à jour de l'infrastructure réseau et de la gouvernance prennent fréquemment des années. [42] [13]

L'approvisionnement en transformateurs peut prendre jusqu'à ~2 ans pour de nombreux services publics (et plus longtemps pour les grands transformateurs de puissance dans certains rapports), tandis que les grands projets de transmission et de sous-stations peuvent prendre plusieurs années en raison des permis et des contraintes d'équipement. Pendant ce temps, les versions de modèles de l'ère ChatGPT sont maintenant fréquemment espacées de plusieurs mois, avec de nouvelles fonctionnalités « agentiques » (utilisation d'outils, utilisation d'ordinateur, long contexte) arrivant assez rapidement pour que les contrôles organisationnels aient tendance à être en retard.

Les signaux de choc psychologique à court terme sont déjà mesurables [51]

L'anxiété publique n'est pas hypothétique. Un sondage Economist/YouGov du 13-16 février 2026 a rapporté que 63 % des adultes américains s'attendent à ce que les avancées de l'IA diminuent le nombre d'emplois, tandis qu'une petite minorité seulement s'attend à des augmentations [52]

--une distribution inhabituellement unilatérale pour un récit technologique. Un sondage YouGov séparé en Grande-Bretagne (18 février 2026) a trouvé de grandes majorités s'attendant à un impact modéré ou majeur sur les emplois de cols blancs/professionnels sur 10 ans. [53] [54]

L'incertitude des travailleurs est de plus en plus traitée comme une question de santé mentale et de stabilité organisationnelle dans la psychologie grand public et la recherche sur la main-d'œuvre, pas seulement un débat technologique. L'implication pour 2026-2030 est que même avant le déplacement de masse, le stress anticipatif et la réaction politique peuvent remodeler les marchés du travail (par exemple, organisation accrue, contrecoup, volatilité politique).

Pourquoi la perturbation peut sembler « soudaine » même si elle est construite lentement [22] [25]

Les données d'entreprise suggèrent que de nombreuses entreprises sont encore au début d'une intégration profonde (expérimentation élevée, transformation faible). Cela peut produire un calme trompeur--jusqu'à ce qu'un nombre relativement petit de « flux de travail d'agent » standardisés mûrissent (triage du support client, examen/acheminement des contrats, rapprochement back-office, maintenance du code), après quoi la diffusion peut s'accélérer rapidement parce que les entreprises copient les playbooks des autres.

Dimensions Juridiques, Politiques & Géopolitiques

Quand cela devient-il illégal ou interdit ?

Il n'y a pas d'« interrupteur » mondial unique où l'AGI devient illégale. Au lieu de cela, l'illégalité émerge à travers trois couches :

Première couche : utilisations interdites (déjà illégales dans les juridictions clés). [5] [55]

Dans l'UE, la loi sur l'IA est entrée en vigueur le 1er août 2024 et suit une application échelonnée ; certaines interdictions sont devenues applicables avant le 2 février 2025 (par exemple, certaines pratiques de « risque inacceptable » spécifiques). Cela signifie que certains déploiements d'IA sont déjà illégaux dans l'UE indépendamment de l'avancement du modèle. Le « point illégal » est le moment où un système est utilisé d'une manière interdite ou d'une manière réglementée sans conformité.

Deuxième couche : obligations de conformité pour les modèles de pointe/à usage général (devenant applicables selon un calendrier). [5] [56]

Les obligations de la loi sur l'IA de l'UE pour les modèles d'IA à usage général commencent plus tôt que le régime à haut risque complet, avec des exigences supplémentaires s'appliquant en août 2026 et août 2027 selon les directives de la loi sur l'IA de la Commission et les rapports majeurs. Pour les développeurs de pointe, « illégal » peut signifier l'échec de respecter les obligations requises de transparence/gestion des risques une fois qu'elles s'appliquent (même si le modèle lui-même n'est pas interdit).

Troisième couche : sécurité nationale et contrôles transfrontaliers (déjà en expansion). [57]

Les États-Unis manquent encore d'une loi fédérale globale unique sur l'IA à la mi-2025 selon le Service de Recherche du Congrès, mais les contrôles à l'exportation et les restrictions technologiques internationales se sont élargis--couvrant les puces avancées et, dans certains cadres, les poids de modèles et les transactions de calcul haute performance. [58]

Dans ce contexte, « illégal » peut signifier exporter ou transférer de la technologie contrôlée, des poids de modèles ou des capacités de calcul restreintes en violation des règles de contrôle des exportations--en particulier dans la compétition États-Unis-Chine. [59] 

En Chine, la réglementation n'est pas une loi unique sur l'IA mais un patchwork en croissance rapide couvrant les systèmes algorithmiques, la synthèse profonde, les services d'IA générative et (notamment) les exigences d'étiquetage pour le contenu généré/synthétique par l'IA avec des dates d'entrée en vigueur définies (par exemple, les mesures d'étiquetage de 2025 rapportées comme entrant en vigueur le 1er septembre 2025). Donc « illégal » peut signifier l'échec de l'étiquetage du contenu, du dépôt de sécurité ou des obligations de gestion de contenu pour les services d'IA générative publics. [57]

Réponse pratique à votre question : Cela devient illégal au moment où un développeur ou déployeur franchit la frontière juridique spécifique d'une juridiction--pratiques interdites (UE), exigences de conformité obligatoires une fois en vigueur (UE ; de nombreuses lois d'État américaines pour des contextes spécifiques ; règles de service chinoises), ou restrictions de contrôle des exportations/sécurité nationale (États-Unis et autres). Il n'y a aucune preuve (2024-février 2026) d'une interdiction générale réaliste de « construire une IA avancée » adoptée par les grandes puissances ; le schéma à court terme le plus probable est le resserrement des contraintes autour des utilisations, de l'audit, de la sécurité, du transfert de calcul/poids et de la responsabilité plutôt que l'interdiction pure et simple de la catégorie technologique.

Pourquoi les pauses sont irréalistes : la logique de course aux armements est maintenant une politique explicite

L'affirmation de Shumer d'une « course aux armements imparable » est fortement soutenue par la manière dont les gouvernements décrivent l'IA : [3] 

Le « Plan d'Action IA de l'Amérique » de la Maison Blanche de l'ère Trump (10 juillet 2025) déclare carrément que les États-Unis sont dans une course pour la domination mondiale en IA, présente le leadership comme apportant des avantages économiques et militaires, et met l'accent sur la construction d'une vaste infrastructure d'IA et l'énergie pour l'alimenter (« Construire, Bébé, Construire ! »). C'est la preuve directe que le cadrage exécutif américain traite l'échelle de l'IA et la construction de puissance comme un impératif national, ce qui mine structurellement la plausibilité de ralentissements volontaires.

L'analyse RAND des incitations États-Unis-RPC dans les problèmes de sécurité nationale liés à l'AGI souligne de fortes incitations à la compétition dans les « armes miraculeuses » et les changements de pouvoir systémiques même si la coopération peut être [60] 

souhaitable dans certains domaines de risque--c'est le terrain classique de la défection. Lorsque le gain perçu est la domination stratégique ou la survie, « la coordination est difficile » n'est pas un échec moral ; c'est la théorie des jeux sous incertitude et méfiance. [58] [61]

Les contrôles à l'exportation et les contre-contrôles renforcent la dynamique de course : les rapports du gouvernement américain et du CRS décrivent l'expansion des contrôles à l'exportation de semi-conducteurs et des restrictions technologiques visant à limiter l'accès de la Chine au calcul avancé permettant l'IA, reflétant que « ralentir l'autre côté » est maintenant un levier de gouvernance principal. Les actions d'application de la Chine et les réponses de la chaîne d'approvisionnement (par exemple, examen des importations de puces, contrôles des terres rares) indiquent en outre une structure d'escalade mutuelle.

La géopolitique énergétique comme nouvelle géopolitique de l'IA

Parce que l'échelle est maintenant contrainte par la puissance dans des régions spécifiques, l'énergie devient un intrant stratégique : [4]

Les opérateurs de réseau et les régulateurs repensent les règles d'accès pour les grandes charges (« apportez votre propre génération » de PJM ; politique de connexion des centres de données de l'Irlande), créant effectivement des « licences d'accès à la puissance » en tout sauf le nom. [3]

Les stratégies nationales fusionnent de plus en plus les priorités de l'IA et de l'infrastructure : les documents politiques américains lient explicitement la domination de l'IA à l'infrastructure et à l'énergie, tandis que les services publics et les investisseurs traitent déjà les centres de données comme des moteurs principaux de dépenses en capital sur plusieurs décennies. [36]

Cela signifie que même si les percées algorithmiques continuent, les goulots d'étranglement de la puissance peuvent façonner l'avantage géopolitique en déterminant quelles régions peuvent héberger la prochaine vague d'entraînement et d'inférence de pointe à grande échelle.

Scénarios Équilibrés, Incertitudes Clés et Conclusions Actionnables

Scénarios à court terme jusqu'en 2035 avec des probabilités fondées sur des preuves

Scénario A : Vague de productivité agentique sans « AGI complète » (probabilité ~45 %) [2]

D'ici 2028-2032, les systèmes agentiques deviennent une couche dominante de la production de cols blancs (codage, opérations back-office, support client, rédaction de conformité, flux de travail de données) tout en nécessitant encore une supervision humaine pour les décisions à enjeux élevés en raison des limites de fiabilité et d'alignement. Ceci est cohérent avec (a) de forts signaux de capacité de modèles agentiques dans les versions de février 2026, (b) des obstacles documentés à l'intégration d'entreprise et un ROI inégal, et

(c) des modes d'effondrement de raisonnement connus sous haute complexité.

Scénario B : « AGI précoce au niveau du labo » émerge et se diffuse inégalement (probabilité ~25 %) [18]

Entre 2027-2031, un ou plusieurs labos démontrent des systèmes qui automatisent de manière fiable une très grande fraction du travail de connaissances à distance dans des environnements contrôlés (par exemple, des seuils de type « AI R&D‑4 » discutés par les labos), déclenchant des effondrements d'embauche de niveau d'entrée plus nets et une réorganisation rapide dans les secteurs à forte exposition. Ceci est soutenu par les calendriers agressifs exprimés par certains leaders de pointe et par la dynamique de composition interne (modèles accélérant le développement de modèles), mais toujours limité par les préoccupations de sécurité et de fiabilité reconnues dans les principaux documents de sécurité.

Scénario C : Les contraintes de puissance et de permis deviennent le régulateur dominant (probabilité ~20 %) [4]

De 2026-2030, le plus grand goulot d'étranglement n'est pas la qualité du modèle mais les mégawatts : retards d'interconnexion du réseau, approvisionnement en transformateurs/sous-stations, contraintes de transmission, conflits eau/terre et moratoires régionaux forcent le calcul à se relocaliser et ralentissent la limite supérieure de l'échelle dans les hubs clés. L'IA progresse toujours, mais la « vitesse de mise à l'échelle » devient dépendante de la géographie et de l'infrastructure et plus intensive en capital--favorisant les acteurs en place et les projets soutenus par l'État. Cela s'aligne avec les changements de règles des opérateurs de réseau, les avertissements de demande du NERC, les délais de livraison des transformateurs et la capacité documentée de centres de données échoués en raison du manque de puissance.

Scénario D : Un incident majeur entraîne une répression réglementaire partielle sans mettre fin à la course (probabilité ~10 %) [3]

Une défaillance très médiatisée (par exemple, incident cybernétique grave impliquant une utilisation abusive de modèle, vague de fraude majeure ou perturbation d'infrastructure critique liée aux outils d'IA) déclenche un resserrement réglementaire rapide : licences plus strictes pour les modèles de haute capacité, rapports obligatoires, régimes de responsabilité plus forts et/ou contrôles à l'exportation élargis. Cependant, les incitations à la course aux armements maintiennent le développement--la réglementation déplace  et comment l'échelle se produit plutôt que de l'arrêter. Cela correspond à la combinaison de (a) le cadrage politique explicite « gagner la course », et (b) les architectures de conformité existantes (application échelonnée de l'UE ; contrôles à l'exportation) qui peuvent être élargies rapidement après des chocs.

Incertitudes clés qui dominent les résultats 2026-2035 [12]

L'incertitude centrale est de savoir si la fiabilité et l'alignement s'améliorent aussi vite que la capacité. Les résultats d'Apple « effondrement à complexité supérieure » et l'accent continu d'OpenAI sur la réduction des hallucinations impliquent que « mieux que les humains à la plupart des tâches » n'est pas garanti sur des délais courts sans changements architecturaux. [42]

La seconde est le débit d'infrastructure : capacité de fabrication de transformateurs, vitesse de construction du réseau, acceptation politique locale et contraintes d'eau/refroidissement peuvent plafonner l'échelle même si l'argent est abondant. [58]

La troisième est la géopolitique : les contrôles à l'exportation, les contraintes de terres rares et les initiatives nationales « IA souveraine » peuvent rediriger l'échelle géographiquement, augmentant les coûts et renforçant les dynamiques de course aux armements.

Conclusions actionnables pour les individus, les entreprises et les décideurs politiques [62]

Pour les individus (2026-2030), le mouvement le plus avantageux est de devenir « natif de l'agent » dans votre domaine--apprenez à définir les résultats, superviser les agents et vérifier les sorties--parce que le plus grand changement de travail à court terme est susceptible d'être au sein des emplois (refonte des tâches, moins de juniors, production plus élevée par travailleur) avant d'être « disparition totale de l'emploi ». [22]

Pour les entreprises, évitez le piège de mesurer la valeur de l'IA uniquement via l'adoption pilote. Les preuves suggèrent que la qualité de l'intégration et la refonte du flux de travail--pas l'accès au modèle seul--déterminent le ROI. Construisez tôt la vérification, l'auditabilité et les contrôles de sécurité, en particulier pour l'utilisation d'outils agentiques (exécution de code, contrôle de navigateur, opérations financières).

Pour les décideurs politiques, les « leviers de stabilité » les plus rapides ne sont pas des interdictions spéculatives de l'AGI mais : (1) protections ciblées pour les travailleurs à forte exposition ; (2) règles de responsabilité et de transparence pour le déploiement à enjeux élevés ; (3) politique industrielle de réseau et d'équipement (transformateurs, sous-stations, transmission) qui empêche la construction d'infrastructure d'IA de socialiser les coûts sur les ménages ; et (4) contrôles à l'exportation coordonnés et [24]

normes de sécurité qui réduisent les incitations à la défection dans le pire des cas--reconnaissant qu'une coordination parfaite est peu probable. [19]

Conseils de surveillance énergie/infrastructure (signal élevé pour 2026-2030) : surveillez (a) les prévisions de charge des principaux opérateurs de réseau et les changements de règles « grande charge » (par exemple, PJM), (b) les évaluations de fiabilité (NERC), (c) les délais de livraison et les indicateurs de prix des transformateurs (NREL/rapports de l'industrie), (d) les moratoires locaux des centres de données et les ordonnances sur l'eau, et (e) les dossiers tarifaires des services publics qui déplacent les coûts de mise à niveau du réseau sur les ménages. Ce sont des indicateurs avancés de l'endroit où l'échelle de l'IA s'accélérera--et où elle se brisera en premier.

Pont de Transition : L'analyse à long terme doit être ancrée sur un petit ensemble de faits à court terme qui sont maintenant des preuves solides (pas de la spéculation) : (1) les modèles agentiques de pointe livrés en février 2026 sont explicitement conçus pour une utilisation d'outils de longue durée et sont utilisés dans les boucles de R&D, créant une pression d'itération composée ; [7]

(2) les principaux leaders discutent publiquement de 2026-2027 comme d'une fenêtre plausible pour une capacité de « pays de génies » tandis que les sceptiques citent encore des délais de plusieurs années à décennies, indiquant une incertitude extrême ; (3) le cadrage de sécurité nationale américain (« gagner la course à l'IA ») rend les pauses mondiales structurellement peu probables, intensifiant les incitations à la défection États-Unis-Chine ; (4) la croissance de la demande d'électricité des centres de données devrait augmenter jusqu'en 2030, et les opérateurs de réseau/régulateurs changent déjà les règles parce que la capacité est contrainte ; (5) les goulots d'étranglement physiques--transformateurs/sous-stations, transmission, eau, terre, permis--deviennent le facteur limitant pour l'échelle de l'IA, et ces mêmes contraintes peuvent augmenter les coûts énergétiques des ménages et approfondir les inégalités.

    📊 Explorez les Visualisations de Données Interactives

    Voir les 5 visualisations en mode plein écran avec curseurs d'année interactifs et vues à basculer

             Voir les Graphiques Interactifs →      Sources & Références Matt Shumer -- « Something Big Is Happening »OpenAI -- Carte Système GPT-5.3-Codex (PDF)Maison Blanche -- Plan d'Action IA de l'AmériqueReuters -- Accords d'Énergie pour Centres de Données PJM (Fév 2026)Commission Européenne -- FAQ Loi sur l'IA de l'UEBusiness Insider -- Gary Marcus sur l'Essai de ShumerOpenAI -- Présentation de GPT-5.3-CodexAnthropic -- Version Claude Opus 4.6Anthropic -- Rapport de Risque Claude Opus 4.6OpenAI -- Présentation de GPT-5OpenAI -- Pourquoi les Modèles de Langage HallucinentRecherche Apple -- « L'Illusion de la Pensée »Sam Altman -- « La Singularité Douce »Boston Dynamics -- Annonce du Nouveau Robot AtlasGroupe BMW -- Essais de Robots HumanoïdesReuters -- Mercedes-Benz Investit dans ApptronikarXiv -- OpenVLA : Modèle Vision-Langage-Action Open-SourceAnthropic -- Déclaration du Sommet IA de ParisPJM Interconnection -- Prévision de Croissance de ChargeTime -- Interview Demis HassabisEl País -- Yann LeCun sur l'IA de Niveau HumainMLQ -- Rapport État de l'IA dans les Affaires 2025Geoffrey Hinton -- Déclaration sur le Risque de l'IAFMI -- L'IA Transformera l'Économie MondialeWEF -- Avenir des Emplois 2025OIT -- IA Générative et Emplois : Indice Mondial d'Exposition ProfessionnelleTom's Hardware -- Patron IA de Microsoft sur les Emplois de Cols BlancsAxios -- Calendrier IA de Dario AmodeiMcKinsey -- État de l'IA 2025The Guardian -- Centres de Données Big Tech et Utilisation de l'EauDaron Acemoglu (MIT) -- Macroéconomie Simple de l'IAOCDE -- Évaluation des Gains de Productivité Macroéconomique de l'IAFMI -- Document de Travail : IA et Marchés du Travail (2025)Utility Dive -- Prix du Gaz et de l'Électricité en HausseEurostat -- Données de Prix de l'ÉnergieAIE -- Rapport Énergie et IAAIE -- Électricité 2024Reuters -- Utilisation d'Énergie Américaine Atteint des RecordsNERC -- Évaluation de Fiabilité à Long Terme 2024CRU Irlande -- Politique de Connexion des Centres de DonnéesKPMG Irlande -- Réinitialisation de la Politique des Centres de DonnéesNREL -- Délais de Livraison des Transformateurs et Infrastructure de RéseauReuters -- Pénurie d'Approvisionnement en Transformateurs aux États-UnisDOE États-Unis -- Règle Finale de Permis de TransmissionTom's Hardware -- Centres de Données Inactifs en Attente d'Énergie du RéseauAP News -- Impacts Communautaires des Centres de DonnéesBusiness Insider -- Centres de Données du Nord de la VirginieReuters -- Southern Co. Augmente son Plan de DépensesReuters -- Investissements dans le Réseau Américain AccélèrentFinancial Times -- IA et Infrastructure ÉnergétiqueYouGov/Economist -- Américains sur l'IA et les Emplois (Fév 2026)YouGov UK -- Sondage sur l'Économie de l'IAAssociation Américaine de Psychologie -- Tendances de l'Incertitude au TravailThe Guardian -- IA, Travail et AvenirLe Monde -- Premières Mesures de la Loi sur l'IA de l'UEReuters -- Règles de l'IA de l'UE Avancent, Pas de PauseService de Recherche du Congrès -- Centres de Données et IA (R48555)Service de Recherche du Congrès -- Réseau IA et Énergie (R48642)Technology's Legal Edge -- Étiquetage de Contenu IA en ChineRAND -- Course IA États-Unis-Chine comme Dilemme du PrisonnierFinancial Times -- Investissement dans l'Infrastructure de l'IABusiness Insider -- PDG d'Anthropic sur les Emplois d'Ingénierie                 

Share This Post

💬 Join the Discussion

Have thoughts on this article? Share them below! Sign in with your GitHub account to leave a comment.

Plus d'articles

Voir tous les articles