g-docweb-display Portlet

L’Fbi lancia l’allarme: porno-criminali in azione - Intervento di Guido Scorza

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

L’Fbi lancia l’allarme: porno-criminali in azione
Si tratta di video porno deep fake realizzati a scopo di estorsione con immagini di una persona appiccicate, grazie alla IA, su video pornografici. Poi parte il ricatto. Ma c'è un modo per difendersi. Il primo: seminiamo sempre meno immagini di noi e dei nostri cari sul web

Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
(HuffPost, 12 giugno 2023)

È una delle ultime frontiere della cybercriminalità e sta mietendo così tante vittime da aver indotto l’intelligence americana a lanciare un allarme: si tratta di porno deep fake realizzati a scopo di estorsione. Lo schema è tanto semplice quanto drammaticamente efficace. Si raccoglie online qualche immagine del volto di una persona e la si “appiccica”, grazie a soluzioni di intelligenza artificiali oggi facilmente accessibili e utilizzabili da chiunque, su un video pornografico in modo che il malcapitato o la malcapitata ne appaia protagonista. Poi si invia il video prodotto in vitro – almeno a colpo d’occhio indistinguibile da un video reale – alla vittima e le o gli si chiede un riscatto: o lo paga o il video finisce online su una delle piattaforme più frequentate della pornografia globale o, magari, nella mailbox del suo datore di lavoro o sulle bacheche social di amici e parenti.

Alla vittima, a quel punto, crolla letteralmente il mondo addosso perché si rende conto che spiegare che quello che sembra vero non lo è sarebbe un’impresa impossibile e, quindi, percepisce la sua reputazione, le sue relazioni personali e professionali, la propria dignità come prossime allo sgretolamento. Chi può paga, entrando così in un vortice dal quale venire fuori è pressoché impossibile perché, naturalmente, una volta mostratosi sensibile alla minaccia, diventa la vittima ideale del cyber-estortore che lo spremerà fino all’ultimo dollaro o euro. Chi non può pagare o sceglie di non farlo entra in una spirale altrettanto drammatica di stress, paura e ansia capace di logorare le personalità più forti. E non basta perché spesso – purtroppo molto più spesso di quanto verrebbe da pensare – i fake in questione hanno per protagonista bambini, le cui foto, vale la pena dirlo senza girarci troppo attorno, il più delle volte, sono state pubblicate su questo o quel social, dai loro genitori, sono le foto del loro compleanno, quelle del primo giorno di scuola, della vacanza al mare, dei regali scartati sotto gli occhi di amici e parenti. Naturalmente, in questi casi, i destinatari delle richieste di riscatto sono gli stessi genitori.

O, peggio, non c’è nessuna richiesta di riscatto perché i video fake fruttano di più se venduti ai gestori delle piattaforme clandestine di contenuti pedopornografici. Cosa fare per contrastare il fenomeno? Che ci piaccia o non ci piaccia con le tecnologie di deep fake in questione dovremo fare i conti perché metterle effettivamente al bando non sembra realistico. Né sembra verosimile, sfortunatamente, pensare a una sola soluzione salvifica e risolutiva. Il punto di partenza, ovviamente, è la consapevolezza del problema e della sua rilevanza. La consapevolezza, da sola, può e deve produrre due conseguenze. Innanzitutto, serve – o dovrebbe servire – a renderci tutti più attenti e gelosi dei contenuti nostri – e, soprattutto, dei nostri figli – che seminiamo online, troppo spesso, a cuor leggero e che diventano poi ghiotta materia prima, a costo zero, per questa e altre forme di cybercriminalità.

E poi deve – o dovrebbe – valere a suggerirci un approccio critico ai contenuti digitali con i quali ci confrontiamo online e, in particolare, alla loro veridicità: insomma se ci si imbatte in un video porno del quale Tizio o Tizia appaiono protagonisti, non dovremmo dare per scontato che ciò che sembra reale lo sia effettivamente. Ma c’è anche la tecnologia che può aiutarci a difenderci dalla tecnologia. Innanzitutto, perché gli stessi algoritmi – o loro “parenti” prossimi - che producono deepfake tanto ben fatti da renderli, a occhio nudo, indistinguibili da video reali, possono riconoscere elementi e marcatori capaci di smascherarli. E, allora, questo genere di tecnologia dovrebbe essere usata da tutti i gestori di piattaforme per la condivisione di contenuti per filtrare i contenuti dei quali si chiede la pubblicazione: se un video viene identificato come falso, lo si restituisce al mittente. Chi non lo fa, evidentemente, si rende complice dei cybercriminali.

E, magari, tecnologie analoghe potrebbero essere installate, by default, anche sui dispositivi dei quali usiamo per fruire dei contenuti digitali così da segnalarci quando un’immagine o un video sono oggetto di manipolazione. Vale, poi, la pena ricordare che esistono, in giro per il mondo, una serie di servizi che consentono alle vittime – adulti e bambini – di pornografia non consensuale di reagire e difendersi - almeno se dispongono del video in questione - chiedendo, o facendo ordinare dalle Autorità preposte, ai gestori delle piattaforme di bloccare la pubblicazione di un video del quale sono o appaiono, loro malgrado, protagonisti.

In Italia, un servizio del genere, ad esempio è gestito dal Garante per la protezione dei dati personali al quale chiunque può chiedere di ordinare ai gestori delle piattaforme di bloccare ex ante la pubblicazione di un contenuto sessualmente esplicito – vero o falso che sia – del quale è o appare essere protagonista. Questo il link per inoltrare, online, la richiesta. Intendiamoci, anche per non creare illusioni, nessuna di queste soluzioni è risolutiva, sfortunatamente, ma valgono, almeno, per limitare e circoscrivere un po’ la circolazione dei contenuti di pornografia non consensuale.