Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : supercalculateurs pour OpenAI, empreinte environnementale du cloud et de l’IA, productivité et “workslop”, modèles qui calibrent leur confiance, marketing à l’ère des agents, et projets mathématiques collaboratifs ouverts à tous.On commence par l’infrastructure. OpenAI et NVIDIA annoncent un partenariat stratégique pour déployer au moins 10 gigawatts de systèmes NVIDIA dédiés à l’IA de nouvelle génération. NVIDIA pourrait investir jusqu’à 100 milliards de dollars, avec une première phase opérationnelle au second semestre 2026 autour de la plateforme Vera Rubin, présentée comme un saut par rapport à la génération Blackwell, avec une production en volume prévue à la même période. Cette alliance prolonge dix ans de collaboration, des premiers supercalculateurs DGX à l’essor de ChatGPT. Sam Altman décrit cette infrastructure comme “la base de l’économie du futur”. Jensen Huang parle d’une nouvelle phase pour fournir la puissance de calcul vers la “superintelligence”. L’accord s’inscrit dans un écosystème plus large comprenant Microsoft, Oracle, SoftBank et le programme Stargate évalué à 500 milliards de dollars. Les investissements seront échelonnés, les détails finalisés dans les semaines à venir, et les feuilles de route des modèles d’OpenAI et des logiciels et matériels NVIDIA seront co-optimisées. OpenAI évoque plus de 700 millions d’utilisateurs actifs hebdomadaires.Cap sur la régulation environnementale en France. L’Arcep élargit sa collecte “Pour un numérique soutenable” afin d’évaluer l’impact de l’IA générative et des fournisseurs cloud: émissions de gaz à effet de serre, consommations d’électricité et d’eau, renouvellement des serveurs. Une consultation publique est ouverte jusqu’au 31 octobre 2025, s’appuyant sur la loi SREN de mai 2024 qui étend les pouvoirs de collecte. Les clouds dépassant 10 millions d’euros de chiffre d’affaires en France hors taxes ou 100 kW de puissance devront déclarer nombre et localisation des datacenters, nombre de serveurs, distinction GPU pour entraînement et inférence, capacités de stockage, puissance des équipements, consommation électrique annuelle, usage de l’eau et trafic de données. De nouveaux indicateurs ciblent aussi opérateurs télécoms et fabricants de terminaux: consommation énergétique des réseaux, effets des technologies d’écrans, émissions sur tout le cycle de vie. Les données 2025 alimenteront un observatoire en mars–avril 2026; la campagne 2026 servira au rapport 2027, qui inclura également opérateurs de centres de données et fabricants de câbles en fibre.Sur le terrain du travail, une étude auprès de 1 150 salariés publiée dans la Harvard Business Review décrit le “workslop”: un contenu généré par IA qui ressemble à du bon travail mais fait peu avancer la tâche. Résultat: pas de hausse magique de productivité, plutôt plus de temps passé à corriger ces productions. En parallèle, une analyse du Financial Times des rapports et réunions d’entreprises du S&P 500 montre que beaucoup peinent à préciser les gains concrets de l’IA, tout en détaillant facilement risques et inconvénients; la “peur de manquer” domine, et les promesses de productivité restent vagues.Côté recherche, Jacob Andreas, au MIT, propose des modèles de langage qui ne se contentent pas de représenter le monde mais se modélisent eux-mêmes pour optimiser cohérence et calibration. La cohérence vise l’absence de contradictions; la calibration, l’alignement entre confiance exprimée et justesse réelle. La discussion, modérée par Josh Joseph du Berkman Klein Center, relie ces avancées aux enjeux d’interprétabilité, de confiance et à la question: selon quels standards un modèle devrait-il présenter sa fiabilité ou son doute?Pour le marketing digital, le changement d’ère s’accélère avec les agents capables d’acheter sans clics ni visites. Les métriques classiques – taux de clics, impressions, taux de rebond, temps passé, engagement social – perdent de leur pertinence. Les agents privilégient des données bien structurées et accessibles. Les nouveaux repères: qualité de schéma, disponibilité via API, signaux d’autorité (avis vérifiés, citations, conformité à des normes), indicateurs de fiabilité (acheteurs récurrents, faible churn), part des ventes initiées par des machines versus des humains, et “Query Match”, la correspondance entre contenus et questions réellement posées.Enfin, la recherche mathématique s’ouvre plus largement grâce aux plateformes collaboratives et aux assistants de preuve comme Lean. Des projets accueillent des contributions dès le niveau licence: l’OEIS, grande base de suites d’entiers; GIMPS, calcul distribué pour traquer de nouveaux nombres premiers de Mersenne; le projet OGR pour des règles de Golomb optimales; la Ramanujan Machine qui génère des conjectures sur des fractions continues pour des constantes et invite la communauté à les démontrer; le Busy Beaver Challenge autour des limites de machines de Turing; et le Book of Statistical Proofs qui compile des théorèmes pour les sciences computationnelles. Le tout s’appuie sur des outils comme GitHub pour documenter, réviser et valider les avancées.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.