g-docweb-display Portlet

Il Garante: (ChatGPT) "Con le fake news può limitare le nostre libertà" - Intervista a Pasquale Stanzione

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Il Garante: (ChatGPT) "Con le fake news può limitare le nostre libertà"
Intervista a Pasquale Stanzione, Presidente del Garante per la protezione dei dati personali
(La Repubblica, 1 aprile 2023)

"La raccolta realizzata per noi illecitamente riguarda, oltre a una quantità enorme di informazioni acquisite dal web, i dati personali degli utenti. Probabilmente anche quelli dei minorenni, visto che ChatGpt non ha un sistema di filtri per la verifica dell'età. Avverte che il servizio è riservato a chi ha più di 13 anni, ma poi non controlla chi vi accede".  Parla il Garante per la privacy Pasquale Stanzione, che ha firmato il provvedimento che blocca ChatGpt.

Di ChatGpt si sta parlando da mesi, perché intervenite solo ora?

"Perché ora abbiamo appreso sufficienti elementi sul suo funzionamento e abbiamo avuto dubbi sulla legittimità del trattamento dei dati. Dalla verifica svolta abbiamo riscontrato l'assenza di informative adeguate sul trattamento dei dati".

Che utilizzo viene fatto dei dati?

"Abbiamo potuto accertare il fine del machine learning: il database che hanno costruito, e che è fermo al 2021, serve allo scopo di addestrare l'algoritmo di intelligenza artificiale a rispondere alle richieste degli utenti, migliorando la potenza di calcolo".

Non è la stessa cosa che fa Google?

"No, non è paragonabile. Il machine learning di ChatGpt, oltretutto, non è legittimato da presupposti giuridici e può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che l'algoritmo fornisce".

Esperti internazionali stanno denunciando in questi giorni i pericoli dello sviluppo dell'intelligenza artificiale. Lei cosa ne pensa, bisogna davvero essere preoccupati?

"L'intelligenza artificiale è una tecnologia tanto preziosa quanto, potenzialmente, pericolosa. Io sono preoccupato solo dall'anomia, cioè dalìo sviluppo in assenza di regole. Per fortuna, come dimostra questo caso, un presidio cruciale risiede proprio nella disciplina di protezione dati e, quando sarà pronto, interverrà il Regolamento europeo sull'intelligenza artificiale, la cui emanazione èquantomai urgente".

Cosa rischia OpenAI, la società statunitense che ha sviluppato ChatGpt?

"Bisogna attendere gli sviluppi dell'istruttoria che abbiamo aperto e tenere conto che il nostro è un provvedimento cautelare, come tale dunque suscettibiledievoluzionenel corsodel procedimento. Abbiamo inviatoa OpenAI una serie di quesiti, hanno venti giorni per rispondere".

Ma si potrà ancora utilizzare il servizio?

"Il nostro provvedimento ha un effetto inibitorio limitatamente ai dati delle persone fisiche stabilite nel territorio italiano. Vediamo se OpenAI rispetterà le disposizioni".

Cosa pensa dell'appello per una moratoria sullo sviluppo dell'intelligenza artificiale, firmato tra gli altri da Elon Musk?

"Fa molto riflettere, soprattutto sulla parte in cui richiama alla necessità di un governo antropocentrico, democratico e sostenibile ( e per quanto riguarda l'Europa, conforme ai suoi valori) dell'intelligenza artificiale, che non può che presupporre una cornice regolatoria adeguata e fondata sulla centralità dell'essere umano".

Quanto è concreto il rischio che strumenti del genere siano utilizzati da apparati statali per inondare il web di propaganda e fake news?

"In regimi non democratici questo rischio è sicuramente concreto e, direi, preoccupante: la potenza di calcolo posta al servizio di Paesi che non possano dirsi davvero Stati di diritto rischia di avere un effetto deflagrante sulla libertà delle persone. Se allarghiamo il discorso all'uso dell'intelligenza artificiale in contesti bellici, gli effetti sono anche peggiori".

Ritiene che la neuroscienza debba essere in qualche modo limitata e controllata?

"Le neuroscienze vanno promosse per la cura di stati neurodegenerativi, per il miglioramento della diagnosi e della terapia delle patologie, ma va riservata grande cautela alle tecniche di brain reading potenzialmente in grado, almeno in un futuro prossimo, di leggere i pensieri. Varcata questa soglia, il rischio da evitare è quello di fare della persona un uomo di vetro, le cui idee siano messe a nudo senza più alcuno spazio per la libertà. I neurodiritti, non necessariamente nuovi ma anche desunti da quelli già sanciti, devono, allora, servire a salvaguardare quel nucleo intangibile della persona, presupposto ineludibile di libertà, che è liberà autodeterminazione".

L'Italia è il primo Paese europeo che emette un provvedimento del genere. Altre Authority per la privacy seguiranno il suo esempio?

Non spetta a me dirlo, credo però che l'Italia abbia acceso un faro, nella cui luce molti altri potranno, se lo riterranno, sviluppare proprie analisi. A tutela della persona e della sua libertà.