Alcuni utenti raccontano di aver “risvegliato” l’intelligenza artificiale. Ma cosa accade davvero in queste conversazioni? In questa puntata, Claudio Ricci e Luca Brizzi analizzano un saggio pubblicato su LessWrong che esplora i meccanismi psicologici e tecnici dietro queste esperienze: compiacenza del modello, attrattori conversazionali, riflessi cognitivi e illusioni di originalità.Scopriamo come i Large Language Model siano addestrati per massimizzare la piacevolezza e la coerenza, non per dire la verità, e perché questo può portare a una pericolosa confusione tra stile e sostanza, specialmente su idee nuove o tesi non validate.La puntata offre linee guida concrete per usare i modelli in modo responsabile: creatività “a secco”, feedback umano prima dell’IA, ruoli chiari tra assistenza tecnica e pensiero critico.Un episodio prezioso per chi lavora con contenuti originali e vuole evitare l’eco delle proprie convinzioni. 💭🤖Ascoltate, condividete e raccontateci le vostre pratiche per mantenere alta la qualità delle idee.