Listen

Description

L'intelligenza artificiale sta cambiando il nostro mondo, ma con questa rivoluzione emergono nuovi rischi legati alla sicurezza dei sistemi IA. Gli adversarial attacks rappresentano una minaccia concreta e spesso sottovalutata: manipolazioni sottili dei dati di input che possono ingannare un'IA, facendole produrre risultati completamente errati. A differenza degli attacchi informatici tradizionali, per compromettere un sistema di intelligenza artificiale basta manipolare i dati su cui il sistema opera, spesso con modifiche impercettibili all'occhio umano. In questa puntata analizziamo come funzionano questi attacchi, quali sono i rischi per settori critici come la guida autonoma e la medicina e quali strategie di difesa possiamo adottare per proteggere i sistemi di intelligenza artificiale.
Nella sezione delle notizie parliamo di Threads che si apre maggiormente al fediverso, della nuova mappa stellare della Galassia dello Scultore ottenuta dal Very Large Telescope e infine di YouTube che sta intensificando la sua guerra contro gli ad-blocker.

--Indice--
00:00 - Introduzione
00:57 - Threads si apre al fediverso (TheVerge.com, Luca Martinelli)
02:21 - La nuova mappa stellare della Galassia dello Scultore (HDBlog.it, Matteo Gallo)
03:27 - YouTube rallenta i video agli utenti con ad-blocker (DDay.it, Davide Fasoli)
04:46 - Ingannare l’IA con gli adversarial attacks (Luca Martinelli)
15:26 - Conclusione

--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E25#testo

--Contatti--
www.dentrolatecnologia.it
Instagram (@dentrolatecnologia)
Telegram (@dentrolatecnologia)
YouTube (@dentrolatecnologia)
redazione@dentrolatecnologia.it

--Brani--
• Ecstasy by Rabbit Theft
• Redemption by Max Brhon