Listen

Description

Fa male ma va letta sino in fondo la ricerca appena pubblicata da Thorn, l’organizzazione non profit americana che si occupa della tutela dei bambini in particolare nei casi di abusi sessuali.
L’unica buona notizia – si fa per dire – è che i più piccoli, nella stragrande maggioranza dei casi (84%), hanno chiaro che la generazione e condivisione di immagini di deepfake sessualmente esplicite è una condotta capace di danneggiare gravissimamente la vittima.
Gli altri dati sono tutti egualmente preoccupanti.
A cominciare da quello secondo il quale il 2% dei ragazzi avrebbe già prodotto immagini di deepfake sessualmente esplicito di adulti e coetanei.
E il 65% di chi li ha generati li ha poi condivisi, con le vittime o con un pubblico più o meno ampio, via app di messaggistica e social media.
Al riguardo, peraltro, i ricercatori fanno notare che verosimilmente questi dati peccano per difetto perché molti dei partecipanti alla ricerca essendo consapevoli del disvalore della condotta potrebbero aver scelto di non confessare di aver generato e condiviso contenuti sessualmente espliciti prodotti a mezzo deepfake.
E che il fenomeno abbia dimensioni già immense lo suggerisce la circostanza che quasi la metà del campione intervistato sa esattamente di cosa si sta parlando, il 10% conosce almeno una vittima di porno deepfake e il 6% ne è già stato vittima.
Insomma, il fenomeno appartiene all’esperienza di vita della più parte delle ragazze e dei ragazzi minori di diciotto anni.
E, sebbene i dati si riferiscano alla popolazione americana, non credo ci sia ragione per dubitare che da questa parte dell’oceano le cose stiano andando diversamente.
Ma come e dove i più giovani trovano app e piattaforme per lanciarsi nella produzione di questo genere di materiale?
La risposta è scontata ma, forse, tanto non basta per accettarla con rassegnazione: sui social network nel 71% dei casi e attraverso i motori di ricerca nel 53%.
E la stragrande maggioranza degli intervistati tra quelli che dichiara di aver utilizzato app e soluzioni per la generazione di porno deepfake, confessa di averli trovati facilissimi da usare.
La sintesi è drammatica.
Tutti d’accordo – bambini inclusi – che mettere il viso di una persona su un corpo nudo e, magari, intento in attività sessuale di chicchessia è grave e può letteralmente distruggere una vita, specie se il volto in questione è quello di un adolescente.
Eppure trovare e usare queste soluzioni è e resta alla portata di chiunque, bambini inclusi.
A me sembra semplicemente intollerabile.
Perché mai questo genere di soluzioni dovrebbe essere pubblicizzato in spazi digitali frequentati dai più piccoli o, il che è lo stesso, perché mai bambini dovrebbero frequentare spazi nei quali questo genere di soluzioni è pubblicizzato?
E, soprattutto, perché queste app e servizi sono lasciati liberamente accessibili ai più piccoli pur essendo tutti consapevoli della loro pericolosità?
E, poi, ancora: perché i fornitori di questi servizi non dovrebbero essere tenuti a verificare che chi li usa abbia i diritti per “incollare” il volto di una persona su un corpo nudo di un’altra?
La questione, insomma, ci sta un po’ sfuggendo di mano o, forse, non ne abbiamo ancora compreso sino in fondo la portata.
Ma se non si interviene di corsa, ci si va male, in tanti e, in qualche caso, in maniera irreparabile.
Lo so, ancora una volta, non è il modo migliore di iniziare la giornata.
Ma ve la auguro stupenda e, naturalmente, goodmorning privacy!