Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : données de code et vie privée, nouveau modèle pour les devs, usages réels de ChatGPT, frais des app stores, violences en ligne et deepfakes, et débat sur la régulation de l’IA.On ouvre avec Anysphere, l’équipe derrière Cursor. L’entreprise étudie la vente ou la licence de données sur la façon dont les ingénieurs utilisent son assistant de codage à des fabricants de modèles comme OpenAI, xAI et Anthropic. Objectif annoncé: aider à entraîner leurs modèles, quitte à nourrir des produits concurrents. En toile de fond, des coûts d’infrastructure élevés et des économies d’échelle jugées médiocres pour Cursor, malgré une levée de 900 millions de dollars en juin. La politique de confidentialité promet de ne pas entraîner de modèles sur les données des utilisateurs sans consentement explicite, mais la monétisation reste envisagée. Les enjeux juridiques sont réels: accords de non-divulgation, RGPD et traitement de données personnelles. La pratique de vendre des données n’est pas nouvelle dans la Silicon Valley, souvent présentée comme l’équivalent du pétrole du numérique, mais elle pourrait raviver les débats sur la confiance et la conformité.Restons côté développeurs avec GPT-5-Codex. OpenAI a dévoilé cette variante de GPT-5 dédiée aux outils de programmation assistée. Pas encore accessible via l’API, mais déjà intégrée à l’extension VS Code, au Codex CLI et à l’agent asynchrone Codex Cloud, y compris via une application iPhone. Nouvelle fonction notable: des revues de code automatiques sur des dépôts GitHub précis, exécutées dans un conteneur temporaire. Particularité technique, le prompt système est plus court que sur d’autres modèles, ce qui pourrait influer sur certaines tâches. Côté retours, un testeur souligne une impression générale positive, tout en notant des difficultés à naviguer dans le code avec l’outil de recherche du CLI, possiblement perfectible via une mise à jour du prompt. Pour l’anecdote, le modèle a aussi généré une image SVG d’un pélican à vélo.Passons aux usages grand public. OpenAI publie une étude sur 1,5 million de conversations avec ChatGPT, anonymisées. L’outil, lancé fin 2022, revendique 700 millions d’utilisateurs actifs par semaine. Contrairement aux idées reçues, les échanges non liés au travail dominent et progressent: de 53 % au départ à plus de 70 % aujourd’hui. L’usage professionnel reste plus fréquent chez les diplômés aux postes bien rémunérés. OpenAI classe les interactions en trois catégories: “demander” (environ la moitié), “faire” (40 %) et “exprimer” (11 %). L’étude note une hausse de la part des femmes utilisatrices entre début 2024 et juillet 2025 et une forte progression dans les pays à revenu faible et moyen. L’éditeur avance que l’accès à l’IA devrait être vu comme un droit, source de valeur non mesurée par le PIB.Changement de registre avec les app stores. Microsoft supprime les frais de publication pour les développeurs individuels sur le Microsoft Store. Google maintient des frais uniques de 25 dollars pour l’inscription sur le Play Store, Apple conserve 99 dollars par an pour l’App Store. En Europe, Apple fait face à une enquête sur son “Core Technology Fee”, facturé à chaque première installation annuelle au-delà d’un seuil, pendant que de nouvelles règles suscitent des critiques chez des développeurs qui y voient une menace pour leur modèle économique. Google a, lui aussi, introduit de nouveaux frais dans l’UE et juge l’ouverture aux magasins d’applications tiers sur Android “dangereuse”. La décision de Microsoft abaisse la barrière d’entrée, alors que ses concurrents ajustent leurs politiques sous contrainte réglementaire.Sur les impacts sociétaux, Laura Bates, dans “The New Age of Sexism”, décrit la reproduction de biais dans l’IA et les mondes virtuels. Les femmes seraient 17 fois plus susceptibles de subir des abus en ligne. Les deepfakes sont massivement genrés: 96 % relèveraient de pornographie non consensuelle, ciblant des femmes dans 99 % des cas. L’autrice évoque des outils inopérants avec des images d’hommes, l’essor de troubles post-traumatiques chez des adolescentes, et son propre harcèlement via des deepfakes. Écart d’adoption aussi: 71 % des hommes de 16 à 24 ans utilisent l’IA chaque semaine, contre 59 % des femmes. Bates appelle à des règles de sécurité comparables à d’autres secteurs, alors que l’industrie renvoie souvent la responsabilité aux comportements des utilisateurs.Enfin, débat régulation: une chronique récente plaide pour une coopération États-Unis–Chine afin de sécuriser l’IA, en citant la menace de “superintelligences”. Certaines affirmations relayées — modèles parlant des langues non prévues, ou une alerte de sauvetage annulée par une IA — ont été démenties ou relevaient de simulations scénarisées. L’idée d’une “IA qui régule l’IA” via une éthique commune embarquée se heurte à la complexité et à la diversité des normes morales, que les systèmes actuels ne savent pas gérer de manière fiable. D’où un appel à des pistes concrètes fondées sur des preuves, plutôt qu’à des récits spéculatifs.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.