Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un rapport officiel corrigé après usage mal encadré d’IA, les limites concrètes des grands modèles de langage, la création face au risque d’uniformisation, et la montée des agents IA sous régulation.D’abord, en Australie, Deloitte a remboursé le dernier versement d’un contrat public, après avoir admis l’usage d’IA générative dans un rapport truffé de références inventées. Le document, remis en juin au Département de l’Emploi et des Relations de Travail, évaluait le Cadre de Conformité Ciblée et un système automatisant des pénalités sociales. Il citait 12 fois un rapport académique inexistant attribué à un professeur de droit de l’Université de Sydney, et deux fois un travail tout aussi introuvable d’un professeur suédois. Une décision de justice liée à l’affaire Robodebt était mal référencée, un juge mal orthographié, avec une citation fabriquée. Deloitte a soumis une version corrigée retirant ces éléments, reconnaissant avoir utilisé un grand modèle de langage pour vérifier si l’état du code du système se mappait aux exigences métiers, et a remboursé le dernier paiement, montant non communiqué, d’un contrat d’un peu moins de 440 000 dollars, courant de fin 2023 à juillet. Le rapport révisé mentionne aussi la correction d’un résumé de la procédure Amato. Selon le ministère, la substance et les recommandations restent identiques. En parallèle, Deloitte dit investir 4,5 milliards de dollars d’ici l’exercice 2030 dans l’IA générative.Cette affaire illustre un point clé sur les LLM. Depuis 2022 et l’arrivée de ChatGPT, ces modèles génèrent texte, images, vidéo ou code grâce à des clusters de serveurs équipés de GPU spécialisés, reliés à très haut débit. Ces GPU, différents des cartes grand public, soutiennent l’entraînement et l’inférence, opérations coûteuses en calcul et donc en argent. Mais la génération reste probabiliste : deux réponses ou deux images d’un même personnage peuvent diverger, parfois nettement. D’où les “hallucinations”, quand le modèle comble les trous par des sorties plausibles mais fausses. S’ajoute une controverse sur l’usage de contenus de livres et du web sans autorisation. Malgré ces limites, l’attrait de l’automatisation a nourri une vague d’investissements, avec plus de 200 milliards de dollars de GPU vendus par Nvidia depuis début 2023, sur fond de ralentissement de la croissance du logiciel. Les promesses ont parfois dépassé les preuves : hormis certains métiers comme la traduction, il y a peu d’indices que les LLM transforment déjà à grande échelle le travail des connaissances. Ils produisent des résultats, mais ne pensent pas comme des humains.Cap sur la création avec “Light and Shade”, une série qui cartographie les opportunités et risques de l’IA pour les industries créatives. Depuis 2022, des outils rudimentaires sont devenus des fonctions intégrées aux grands logiciels, ouvrant l’accès à des disciplines autrefois réservées. Cinq thèmes structurent le débat : emploi, propriété, environnement, productivité et homogénéisation. Côté emploi, de jeunes diplômés décrivent un vide d’opportunités. Sur la propriété, les questions de droits d’auteur et de plagiat renvoient à une histoire longue, jusqu’au Statute of Anne de 1710. L’empreinte carbone inquiète, sans référentiels clairs pour orienter les pratiques. Le “paradoxe de la productivité” apparaît : l’IA peut ralentir pour mieux explorer, plutôt qu’accélérer. Enfin, une “grande uniformité” menace si les mêmes modèles lissent la diversité stylistique. Chercheurs, artistes, designers et techniciens y croisent optimisme et désillusion, avec l’objectif d’éclairer, pas de trancher.Dernier volet : les agents IA. Ce ne sont plus de simples assistants : ils perçoivent, planifient, agissent et coopèrent parfois entre eux. Gartner anticipe qu’en 2028, 15 % des décisions métier quotidiennes seront prises par des agents, et 33 % des entreprises les utiliseront, contre 1 % en 2024. En Europe, l’AI Act 2024 encadre l’autonomie via des obligations de transparence et de supervision humaine. Le marché pourrait atteindre 47,1 milliards de dollars en 2030, dont 1,896 milliard en France. Les LLM y jouent un rôle central pour comprendre, chercher, planifier et générer. Mais les craintes sont nettes : déqualification, dilution des responsabilités, dépendance technologique, perte de contrôle. En France, 75 % des citoyens pensent que l’IA détruira plus d’emplois qu’elle n’en créera, et 63 % refusent de se former. Aux États-Unis, seuls 23 % des adultes jugent que l’IA améliorera leur travail, contre 73 % des experts du domaine. La confiance est basse : 93 % des employés de bureau doutent de la fiabilité des résultats en raison d’erreurs, de biais et d’un manque de traçabilité et d’explicabilité. Les organisations s’orientent vers des mécanismes de gouvernance, et testent des “agents-gardiens” pour surveiller d’autres agents. Le cadre européen insiste sur la capacité humaine à corriger, interrompre ou valider. Reste un enjeu managérial : des rôles cantonnés à la supervision peuvent réduire l’engagement et l’épanouissement au travail.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.