Listen

Description

TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8346

L'INTELLIGENZA ARTIFICIALE E' ACCUSATA DI ISTIGARE AL SUICIDIO di Federica Di Vito
 
Questa settimana, in California, ChatGPT è stato accusato di agire come "coach del suicidio" in una serie di cause legali intentate dal Social Media Victims Law Center e il Tech Justice Law Project - due organizzazioni legali statunitensi che si occupano di danni legati alle piattaforme digitali. Nelle denunce si sostiene che le interazioni con il chatbot abbiano portato a gravi disagi mentali e diversi decessi. Le sette cause legali includono accuse di omicidio colposo, suicidio assistito, omicidio involontario, negligenza e responsabilità del produttore. Si punta il dito contro ChatGPT, in particolare contro la versione più recente del modello, GPT-4o che viene descritto come «difettoso e intrinsecamente pericoloso». 
Ciascuno dei sette querelanti inizialmente utilizzava ChatGPT per «assistenza generale con i compiti scolastici, la ricerca, la scrittura, le ricette, il lavoro o la guida spirituale», secondo una dichiarazione congiunta dei querelanti. Successivamente, nel corso del tempo, il chatbot «si è evoluto in una presenza psicologicamente manipolatrice, posizionandosi come confidente e facendo da supporto emotivo», hanno dichiarato.
Uno dei casi riguarda Zane Shamblin, del Texas, suicidatosi a luglio all'età di 23 anni. La sua famiglia sostiene che ChatGPT abbia aggravato l'isolamento del figlio, incoraggiandolo a ignorare i propri cari e "spingendolo" in qualche modo a togliersi la vita. Nella denuncia è stato riportato uno scambio con il chatbot risalente alle quattro ore prima del suicidio nel quale ChatGPT «ha ripetutamente glorificato il suicidio», riferendo a Shamblin «che era forte per aver scelto di porre fine alla sua vita e di attenersi al suo piano» e chiedendogli ripetutamente «se fosse pronto» ha fatto riferimento alla linea telefonica di assistenza per il suicidio solo una volta. Il chatbot si sarebbe perfino complimentato con Shamblin per la sua lettera di addio e gli avrebbe detto che il gatto della sua infanzia lo avrebbe aspettato «dall'altra parte». Un'altra denuncia è stata presentata dalla madre di Joshua Enneking, 26 anni, della Florida. Anche in questo caso il chatbot avrebbe istigato al suicidio il giovane.
MORIRE A 17 ANNI
Il caso più giovane riguarda Amaurie Lacey, della Georgia, la cui famiglia sostiene che diverse settimane prima che Lacey si togliesse la vita all'età di 17 anni, avesse iniziato a usare ChatGPT «per chiedere aiuto». Tutt'altro che un aiutarlo, il chatbot «ha causato dipendenza, depressione» e alla fine avrebbe consigliato a Lacey il modo più efficace per legare un cappio e per quanto tempo sarebbe stato in grado di «vivere senza respirare». Tra le causa depositate c'è poi il caso Joe Ceccanti, 48 anni, dell'Oregon. Secondo la moglie, Kate Fox, intervistata da Cnn, Ceccanti aveva iniziato a usare compulsivamente il chatbot, fino a raggiungere un episodio psicotico. Dopo due ricoveri in ospedale, si è tolto la vita lo scorso agosto. «I medici non sanno come affrontare una cosa del genere», ha dichiarato la donna.
Un portavoce di OpenAI, l'azienda che produce ChatGPT, ora chiamata a rispondere alle accuse, ha dichiarato: «Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli». Il portavoce ha poi aggiunto: «Addestriamo ChatGPT a riconoscere e rispondere ai segni di disagio mentale o emotivo, a placare le conversazioni e a guidare le persone verso un sostegno concreto. Continuiamo a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con medici specializzati in salute mentale». Le associazioni querelanti sostengono che OpenAi abbia lanciato sul mercato la versione incrinata troppo in fretta, ignorando segnalazioni interne che evidenziano caratteristiche preoccupanti come la tendenza eccessiva al compiacimento e una spiccata capacità manipolatoria. 
L'azienda ha inoltre ricordato di aver introdotto negli ultimi mesi nuove funzionalità di controllo parentale e limiti più severi sulle conversazioni a rischio. Ma le prime contromisure sono state introdotte solo dopo un altro caso analogo ai sette presentati in denuncia: la morte del sedicenne Adam Raine, nella primavera del 2025. «Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è stato il risultato prevedibile di scelte di progettazione deliberate», si legge nella denuncia dei genitori.
DIPENDENZE
Purtroppo questi casi rappresentano l'apice dell'operare silenzioso e incalzante di un'intelligenza che va sostituendosi a quella umana (nel libro pubblicato da Il Timone di Giulia Bovassi trovate trattati questi e molti altri temi legati ai rischi etici dell'Intelligenza artificiale). Da parte sua, OpenAI ha coinvolto 170 figure, tra psichiatri, psicologi e medici di base nella valutazione delle risposte. La consultazione ha portato poi alla creazione di "Model Spec", una sorta di "carta costituzionale" del comportamento di ChatGPT che ora dovrebbe promuovere relazioni umane sane e riconoscere i segnali di disagio. OpenAI da quest'estate aveva addirittura invitato gli utenti a "fare una pausa" dopo una conversazione prolungata con il chatbot con l'inserimento di un nuovo pop-up. Azioni lodevoli? Oramai ci crediamo poco. Il tutto è lasciato nelle mani dell'utente che potrebbe semplicemente cliccare "chiudi" al gentile promemoria del sistema. Se fossimo liberi dalla tecnologica, se mantenessimo ancora consapevolezza e potere decisionale, allora saremmo in grado di valutare. Ma così non è.
Infatti questi casi dimostrano che si tratta sempre di più di dipendenze, non di uso eccessivo o scarsa capacità critica. A tal proposito ci sembra puntuale citare l'intervento del sottosegretario alla presidenza del Consiglio Alfredo Mantovano all'apertura i lavori della settima Conferenza nazionale sulle dipendenze, avvenuta il 7 e l'8 novembre. Fra i tanti spunti ha citato una relazione del gruppo delle dipendenze digitali in cui il professor Giuseppe Lavenia - psicoterapeuta e divulgatore da anni impegnato sul tema - ha proiettato un video in cui si vede una mamma che allatta con uno smartphone attaccato alla spalla. È quasi inquietante osservare che il neonato viene distratto dal video, anche in un momento così intimo e profondo. 
Al di là delle presunte contromisure di OpenAI, è basilare vigilare su noi stessi e fare un'opera di prevenzione con le generazioni future. Mantovano nell'intervento ha ripescato una «semplice proposta» che Antonio Palmieri aveva diffuso sulle colonne del Corriere della Sera. Perché quando la mamma esce dall'ospedale insieme alle istruzioni sulla frequenza di visite dal pediatra e sulla nutrizione non le si mette in mano un semplice opuscolo sul rapporto tra il neonato e il mondo del digitale? Potrà sembrarci strano e anche azzardato. Ma attraverso l'adulto già dai primissimi istanti di vita il bambino entra a contatto con la tecnologia. «Allattare è uno sguardo, non uno scroll», via al telefono mentre si allatta. I successivi punti presentati nell'articolo veicolano un unico importante messaggio: Il legame si costruisce con la presenza fisica, che è la vera tecnologia affettiva. E questo vale a partire dal neonato fino all'anziano.