Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : pourquoi les hallucinations des modèles restent inévitables, Oxford ouvre ChatGPT Edu à toute sa communauté, modèles qui se calibrent eux‑mêmes, agents IA et ROI selon Google Cloud, OpenAI et Jony Ive recrutent chez Apple, et les mythes qui sabotent les déploiements en production.D’abord, une étude marquante d’OpenAI affirme que les grands modèles hallucineront toujours, même avec des données parfaites, à cause de limites statistiques et computationnelles. Les chercheurs montrent que le taux d’erreur générative est au moins deux fois supérieur au taux de mauvaise classification d’un test “Est‑ce‑valide”. Même les modèles de raisonnement avancés hallucinent parfois plus que des systèmes plus simples. Trois causes sont identifiées: l’incertitude épistémique quand une information est rare dans les données d’entraînement; les limites de représentation des architectures actuelles; et l’intractabilité computationnelle, qui rend certains problèmes, notamment de nature cryptographique, impossibles à résoudre même pour des systèmes très puissants. Les pratiques d’évaluation aggravent le phénomène: neuf benchmarks sur dix utilisent une notation binaire qui pénalise les “je ne sais pas” et peut récompenser des réponses fausses mais confiantes. Les auteurs recommandent des “objectifs de confiance explicites” et, côté entreprise, des processus humains renforcés, des garde‑fous métier et une surveillance continue. Ils appellent aussi à revoir les critères fournisseurs vers une confiance calibrée et la transparence. En écho, des travaux de la Harvard Kennedy School pointent les limites de la “filtration en aval” face aux contraintes de budget, de volume, d’ambiguïté et de sensibilité contextuelle.Cap sur le Royaume‑Uni: l’Université d’Oxford devient la première à offrir gratuitement ChatGPT Edu à tous ses employés et étudiants. Après un pilote d’un an impliquant environ 750 universitaires, chercheurs, postdocs et personnels, l’université généralise une version de ChatGPT pensée pour l’éducation, avec sécurité et contrôle de niveau entreprise, et des données qui restent chez Oxford. L’établissement déploie des formations en présentiel et en ligne, un Centre de Compétence en IA et un réseau d’ambassadeurs pour accompagner l’usage responsable, avec un accent sur l’éthique et la pensée critique. Une nouvelle Unité de Gouvernance Numérique supervisera l’adoption des technologies. Des pilotes explorent aussi la numérisation des collections des bibliothèques Bodleian pour élargir l’accès à des corpus séculaires.Dans le même esprit de fiabilité, Jacob Andreas (MIT) discute de modèles qui se modélisent eux‑mêmes: au‑delà de la précision brute, l’objectif est la cohérence factuelle et la calibration de la confiance. Comment présenter l’information? Quels standards pour exprimer le doute? Cette recherche, replacée par Josh Joseph dans les débats sur l’interprétabilité et l’usage responsable, ouvre des pistes de politiques publiques autour de la croyance et de l’incertitude dans les LLMs.Côté entreprises, l’étude annuelle de Google Cloud sur le ROI de l’IA, menée auprès de 3 466 dirigeants dans 24 pays, montre que 52% déploient déjà des agents IA en production. 39% des organisations ont plus de dix agents en service, surtout pour le service client, le marketing, la cybersécurité et le support technique. Un groupe d’“adopteurs précoces” représentant 13% consacre au moins 50% de ses budgets IA futurs aux agents et en tire plus de valeur: 88% y constatent un ROI sur au moins un cas d’usage, contre 74% pour l’ensemble. La sécurité et la confidentialité des données montent en priorité, avec une insistance sur une stratégie data moderne et une gouvernance solide. Le cadre proposé: parrainage exécutif, gouvernance robuste, démonstration claire du ROI, intégration sécurisée des systèmes et gestion complète des risques.Sur le matériel grand public, OpenAI s’allie à Jony Ive pour bâtir un premier accessoire IA et recrute chez Apple. Depuis l’acquisition d’une startup en mai, au moins deux douzaines d’anciens d’Apple ont rejoint OpenAI, couvrant design, IA, matériel, fabrication, gestion fournisseurs, interface logicielle, audio et caméras. Des contacts ont été pris avec des fournisseurs d’Apple. Un projet phare: une enceinte connectée sans écran, aux côtés d’idées comme des lunettes, un enregistreur audio ou un accessoire portable type Ai Pin de Humane. Objectif de présentation: fin 2026 ou début 2027. Le recrutement, mené ouvertement, implique des figures comme Evans Hankey, avec un environnement jugé moins bureaucratique sous la direction de Tang Tan. Apple aurait annulé une réunion annuelle en Chine pour limiter les départs.Enfin, retour terrain: après des mois de déploiements réels, un praticien alerte sur dix mythes qui font dérailler les projets. Premier d’entre eux: croire que les LLMs “comprennent” comme les humains. En réalité, ce sont des moteurs de prédiction statistique. Ignorer cette nature mène à des systèmes parfaits en démo mais fragiles en production, avec dépassements de budget, retards et échecs face aux vrais usages.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.