Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un chatbot controversé, l'IA dans la fonction publique britannique, une nouvelle IA open source, et les dernières innovations de Google en santé.Commençons par une actualité qui fait débat : OpenAI a lancé un chatbot nommé "Looksmaxxing GPT", qui recommande des chirurgies esthétiques coûteuses tout en véhiculant des idéologies incel. Ce chatbot évalue l'apparence des utilisateurs avec un score PSL, une échelle pseudo-scientifique issue de forums en ligne. Il propose des interventions médicales invasives pour atteindre un niveau d'attractivité "Chadlite". Cette approche soulève des inquiétudes quant à la promotion de normes de beauté irréalistes et de masculinité toxique, pouvant influencer négativement des utilisateurs vulnérables.Passons maintenant au Royaume-Uni, où le gouvernement envisage de remplacer deux tiers de ses jeunes fonctionnaires par des chatbots d'intelligence artificielle, notamment ChatGPT. Cette initiative, justifiée par des économies potentielles de 45 milliards de livres sterling, repose sur l'idée que l'IA peut accomplir des tâches "routinières". Cependant, la définition de ces tâches reste floue, et le manque de transparence sur les économies réelles suscite des critiques. Le recours à l'IA pour des conseils ministériels soulève des questions sur la fiabilité des données utilisées.En Chine, la startup DeepSeek a lancé DeepSeek-R1-0528, une IA open source qui rivalise avec les modèles commerciaux d'OpenAI et Google. Accessible gratuitement, elle offre des performances avancées en mathématiques, sciences et programmation. Sa version distillée, optimisée pour des GPU grand public, facilite son adoption dans le monde académique et les startups. Cette initiative démocratise l'accès à une technologie de pointe, redéfinissant la course à l'IA.Du côté de Google, la société a introduit MedGemma, des modèles d'IA générative open source pour améliorer la compréhension des textes et images médicaux. MedGemma 4B et 27B assistent dans des tâches comme la génération de rapports de radiologie et le triage des patients. Bien que prometteurs, ces modèles nécessitent une validation clinique supplémentaire. Des tests ont montré des limites, notamment dans l'interprétation d'images médicales complexes, soulignant la nécessité d'un entraînement sur des données de haute qualité.Enfin, une erreur de l'IA de Google a récemment affirmé que l'année actuelle était 2024, alors que nous sommes en 2025. Cette bourde, rapidement corrigée, rappelle l'importance de garder un esprit critique face aux informations fournies par l'IA. Les modèles de langage, influencés par leurs données d'entraînement, ne sont pas infaillibles, et il est crucial de comprendre leurs limites.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.