L’intelligenza Artificiale sta iniziando a portare tanti problemi. L’ultimo sembra essere quello dei deepfake porno. Ci sono applicazioni in grado di togliere i veli, gli abiti, a qualsiasi foto, trasformandola in un’immagine da calendario Pirelli. Ci sono programmi in grado di inserire l’immagine del volto di qualsiasi nostro amico o amica, in un vero e proprio film porno. La cosa sta sfuggendo di mano.
I deepfake porno sono nati circa sette anni fa ma solo ora cominciano ad essere un problema. I motori di ricerca, i social non riescono a bloccare foto ma soprattutto video sintetici, realizzati dall’intelligenza artificiale. Questi programmi, evito di citarli per darla vinta ai crimilai,
sfruttando l’apprendimento automatico per inserire il volto di una persona in materiale pornografico senza il suo permesso.
Praticamente oggi potrei prendere la foto di un’amica, darla in pasto al programma per creare una foto o un video fake, ovviamente porno.
Secondo Wired UK negli ultimi sette anni sono stati caricati almeno 244.625 video sui 35 siti web creati esclusivamente o parzialmente per ospitare video porno deepfake. Nei primi nove mesi del 2023 su questi portali sono stati caricati 113mila video, con un aumento del 54 per cento rispetto ai 73mila filmati aggiunti in tutto il 2022. Entro la fine di quest’anno, secondo le previsioni dell’analisi, il numero di video prodotti nel 2023 supererà quello di tutti gli altri anni messi insieme.
“È una cosa che prende di mira la gente comune, le studentesse delle scuole superiori, le adulte di tutti i giorni: è diventato un fatto quotidiano – afferma Sophie Maddocks, che conduce ricerche sui diritti digitali e sulla violenza sessuale informatica presso l’Università della Pennsylvania –. Sarebbe molto diverso se riuscissimo a rendere più difficile l’accesso a queste tecnologie. Non dovrebbero bastare due secondi per istigare potenzialmente un reato sessuale”.
Incredibile vero?