Le immagini e i video sintografici stanno entrando sempre più nelle nostre case (ne avevo parlato qui).
Grazie all’Ai, in pochi secondi, si possono produrre foto artefatte, realizzare voci sintetiche e video sintografici che sembrano reali. Si tratta di materiali digitali che stanno diventando un vero problema. Ovviamente il Papa raffigurato con un giaccone di Moncler ci strappa un sorriso ma la nostra voce prodotta dall’Ai, magari per fini illeciti, potrebbe fare danni.
Tik Tok è stato il primo social media ad aggiornare le proprie linee guida. “I supporti sintetici o manipolati che mostrano scene realistiche devono essere chiaramente segnalati”: si legge al punto 3 della sezione Integrità e autenticità delle Linee Guida della Community di TikTok. Le norme, appena aggiornate, presto verranno replicate da tutti gli altri social per combattere i deepfake, in attesa dell’AI Act che entrerà in funzione (pare) solamente nel 2025.
L’Ai Act, la legge europea in discussione al parlamento che vuole mitigare l’effetto dell’AI, prevede anche la dichiarazione obbligatoria dei materiali manipolati (sintetici) postati online.
In attesa dell’arrivo della legge non ci resta che porre attenzione a qualsiasi contenuto. Presto ci sembrerà artefatto un contenuto vero, ci sembrerà vero un deepfake. Come fare per non cadere nel tranello? Bisognerà dubitare di qualsiasi cosa, anche della realtà. Il paradosso delle nuove tecnologie.
Sintografia. Tutte le nuove norme per i Social
Subscribe
Login
Please login to comment
0 Commenti