Listen

Description

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Google Discover et la montée des sites générés par IA, Meta qui utilise les conversations pour cibler la pub, le fine-tuning des modèles, l’essor des agents d’IA, un pari quantique pour le raisonnement, et un documentaire sur la “bouillie” de contenus en ligne.D’abord, en France, Google Discover est devenu le robinet de trafic des médias. En 2024, son flux a bondi de 50 %, avec plus de 500 millions de clics mensuels, désormais source principale pour la presse. Mais environ 20 % des 1 000 sites d’info les plus recommandés par Discover, et 33 % des 120 plus recommandés par Google News en Technologie, sont générés par IA. Des outils comme Gnewsalyzer montrent des sites publiant des rafales d’articles sans vérification, aux titres accrocheurs. Exemple frappant : decontair-67.fr, recommandé 614 fois en 12 jours avant une pénalité pour spam. L’éditeur Julien Jimenez pilote une galaxie de sites IA sortant des milliers d’articles par jour, engrangeant des revenus publicitaires au détriment des médias traditionnels. Beaucoup sont pénalisés après quelques semaines, mais ils dominent encore Discover. Google assure exclure 99 % des contenus de faible qualité via ses systèmes antispam. Les chiffres observés posent la question de l’efficacité de ces filtres et renforcent les appels à des critères de sélection plus stricts.On change d’arène, mais toujours autour de nos traces numériques. Meta prévoit, à partir du 16 décembre 2025, d’exploiter les échanges avec ses assistants IA pour affiner la personnalisation publicitaire sur Facebook, Instagram et autres apps du groupe. Seuls les dialogues postérieurs à cette date seront pris en compte, en excluant religion, orientation sexuelle, politique, santé et origine ethnique. Mesure non appliquée au Royaume‑Uni, dans l’Union européenne ni en Corée du Sud. Les utilisateurs ne pourront pas refuser totalement, mais quelques réglages généraux resteront disponibles. Objectif affiché du groupe : aller vers une automatisation complète des campagnes publicitaires d’ici 2026. Cette orientation suscite des critiques, notamment autour des risques pour les mineurs et de la frontière floue entre conseil conversationnel et influence commerciale. Meta informera les membres à partir du 7 octobre avant le déploiement.Côté méthodes, le fine‑tuning revient au premier plan. Il s’agit de réentraîner un modèle de langage pré‑entraîné sur un jeu de données ciblé pour une tâche précise, tout en conservant son savoir général. Imaginez un modèle comme une personne cultivée qu’on envoie en école spécialisée. Diagnostic médical, rédaction juridique, analyse de recherche : l’étape clé n’est pas le code, mais la définition rigoureuse de la tâche et des données pertinentes pour obtenir des réponses contextuelles et adaptées.Plus largement, les modèles ont beaucoup grandi, de GPT‑1 en 2018 à GPT‑5 en 2025 : on est passé d’environ 4 000 mots traitables à des contextes de plusieurs millions. Cette montée en capacité n’efface pas deux limites : dépendance aux données d’entraînement et “hallucinations”. Pour fiabiliser les usages, le workflow Agentic AI décompose les processus en une chaîne d’agents spécialisés. On y trouve des agents à réflexes simples (comme un thermostat), des agents à réflexes basés sur un modèle (qui tiennent compte d’états passés), des agents basés sur des objectifs, d’autres sur l’utilité (un robot de trading qui arbitre risque et rendement), et des agents d’apprentissage qui s’améliorent avec l’expérience. En entreprise, un processus d’achats peut être orchestré comme une course de relais entre agents, avec validation humaine quand nécessaire. Côté outils, LangGraph, CrewAI, IBM Watson ou Amazon Bedrock AgentCore cherchent à faciliter cette orchestration.Sur le raisonnement, une piste originale émerge : traiter l’explication étape par étape comme un problème d’optimisation combinatoire, résolu par des processeurs quantiques. Le système génère des “raisons” candidates, chacune étant retenue ou écartée. L’ensemble est encodé en HUBO, avec des termes qui récompensent la pertinence, pénalisent les contradictions par paires et imposent la cohérence de groupes. Avec 120 raisons, on obtient déjà environ 7 000 interactions par paires et 280 000 termes de triplets, un paysage difficile pour les solveurs classiques. Un nouvel algorithme, BF‑DCQO, tourne sur du matériel quantique actuel (IBM supraconducteur, IonQ à ions piégés) et, sur une puce IBM à 127 qubits, a résolu des instances impliquant 156 raisons. Sur la suite Big‑Bench Extra‑Hard, le modèle augmenté a atteint 61 % sur DisambiguationQA, devant o3‑high d’OpenAI à 58,3 % et DeepSeek R1 à 50,0 %, avec des gains similaires sur Causal Understanding et NYCC. L’ambition est d’apporter des explications plus courtes, cohérentes et vérifiables, utiles dans des secteurs régulés.Enfin, un documentaire de Mario Sixtus met en lumière la “bouillie” de contenus IA qui inonde le Web : faux livres sur Amazon, musique générée sur Spotify, vidéos racoleuses sur Facebook, influenceurs robots sur TikTok. On y voit des vidéos créées à partir d’une phrase, des livres prêts à vendre sans être écrits ni lus, le podcasteur Evan Ratliff qui se clone, et le travail d’annotation faiblement payé d’une travailleuse au Kenya. Au‑delà des démonstrations, le film rappelle le rôle souvent invisible du travail humain et retrace comment un Internet pensé pour la circulation du savoir a été capté par les plateformes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.