Quando si parla di algoritmi di apprendimento automatico, spesso si fa riferimento al concetto di black box (scatola nera), che implica l’impossibilità di capire come l’algoritmo sia riuscito a produrre un determinato risultato. Inoltre, i modelli di intelligenza artificiale possono essere manipolabili e vulnerabili ad attacchi. Per questo motivo, diventa essenziale non solo comprendere il risultato prodotto dall'algoritmo, ma anche il “ragionamento” e il processo che lo ha portato a formulare una risposta. Ma cos'è, quindi, l'IA spiegabile? Come funziona? A cosa serve e, soprattutto, a che punto siamo nella comprensione dei modelli di intelligenza artificiale che utilizziamo quotidianamente? In questa puntata cerchiamo di rispondere a queste domande, iniziando proprio dal definire cosa si intende per IA spiegabile.
Nella sezione delle notizie parliamo dell’azienda cinese DeepSeek e dei suoi nuovi modelli di IA open source, del successo del test di XB-1 di Boom Supersonic che fa ben sperare per il ritorno dell’aviazione supersonica civile e infine di Waymo che testerà la guida autonoma in 10 nuove città per rendere il proprio sistema sempre più generalizzabile.
--Indice--
00:00 - Introduzione
00:53 - I nuovi modelli open source di DeepSeek (Wired.it, Luca Martinelli)
02:18 - Il ritorno dell’aviazione civile supersonica (IlSole24Ore.com, Matteo Gallo)
03:32 - Waymo testa la guida autonoma in 10 nuove città (TheVerge.com, Davide Fasoli)
05:00 - Perché dovremmo fidarci dell'IA? (Luca Martinelli)
15:15 - Conclusione
--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E5#testo
--Contatti--
• www.dentrolatecnologia.it
• Instagram (@dentrolatecnologia)
• Telegram (@dentrolatecnologia)
• YouTube (@dentrolatecnologia)
• redazione@dentrolatecnologia.it
--Brani--
• Ecstasy by Rabbit Theft
• One Taste by More Plastic & URBANO