g-docweb-display Portlet

Ghiglia: "Ma quale blocco all’innovazione, regolare l’AI è un dovere" - Intervento di Agostino Ghiglia

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Ghiglia: "Ma quale blocco all’innovazione, regolare l’AI è un dovere"
Il commento di Ghiglia (Garante Privacy), sul provvedimento su Chatgtp, a Cybersecurity360.it. Nessun blocco all’innovazione, piuttosto la necessità di tutelare il diritto degli utenti a essere informati su ciò che l’IA fa dei nostri dati
Intervento di Agostino Ghiglia, componente del Garante per la protezione dei dati personali
(Cybersecurity360, 3 aprile 2023)

Il provvedimento di limitazione dei dati personali nei confronti del chatbot ChatGPT si è trasformato in una tenzone quasi surreale.

Lo scontro in due fazioni

  • Da una parte gli auto nominatisi "nuovisti" o alfieri dell’innovazione senza se e senza ma;
  • dall’altra i presunti "passatisti" che hanno la pretesa di chiedere il rispetto delle leggi vigenti le quali, bene o male, per proteggere i dati personali e quindi la scelta consapevole e la Libertà stessa delle persone, regolamentano, anche indirettamente, il "settore del futuro".

I primi gridano al blocco del progresso, al funerale dell’innovazione, alla tumulazione del futuro.

I secondi, quasi timidamente, ricordano un principio base della nostra Democrazia sintetizzato dall’Art. 54 della Costituzione: "Tutti i cittadini…hanno il dovere di essere fedeli alla Repubblica e di osservarne la Costituzione e leggi.I cittadini cui sono affidate funzioni pubbliche  hanno il dovere di adempierle con disciplina ed onore".

Ma quale blocco all’innovazione

Prescindendo dal fatto che non arrivo proprio a comprendere come la limitazione temporanea del trattamento dei dati (per il solo servizio B2C ) di un chatbot nato 4 mesi fa (ancorché con milioni di account) possa frenare lo sviluppo tecnologico della Nazione, siamo davvero convinti che innovazione, leggi e diritti non possano coesistere? Crediamo davvero che chatbot, app, piattaforme e le più svariate applicazioni di Intelligenza artificiale non possano prosperare secondo modelli "privacy by design"? Pensiamo davvero che sia giusto violare 6 norme del RGPD votato da 27 Parlamenti?

Lascio la risposta in sospeso ma per me è scontata.

Personalmente, e le mie attività passate lo dimostrano, non ho nulla contro qualsiasi tipo di innovazione purché sia rispettosa dei Diritti fondamentali dell’Individuo e tesa, rubando l’espressione all’universo ambientalista, ad uno " sviluppo sostenibile" equilibrato, lecito, conosciuto e conoscibile, che tuteli e garantisca tutti a cominciare dalle fasce deboli della popolazione, primi fra tutti i minori.

Con la premessa da troppe parti rimossa che nel caso in esame il 20/3/23 "lo sviluppatore ha confermato l’esistenza di un problema tecnico che non solo ha mostrato la cronologia delle domande degli utenti ma anche parte dei dettagli sui metodi di pagamento usati….abbiamo scoperto che lo stesso bug potrebbe aver causato la visibilità involontaria delle informazioni relative ai pagamenti dell’1,2% degli abbonati al servizio plus per una finestra attiva di nove ore" (fonte ANSA), (mi) pongo ancora qualche domanda.

Bisogna essere informati sull’AI

E’ lecito che i nostri dati personali, anche se reperibili da fonti pubbliche-il che non fa venire comunque meno l’ulteriore trattamento che ne deriva-siano raccolti per addestrare gli algoritmi sottesi alle Intelligenze Artificiali relazionali senza che se ne sia adeguatamente informati? E’ corretto che su una piattaforma che raccolga dati non vi siano robusti sistemi di controllo anagrafico per evitare di esporre i minori a contenuti inadeguati?

Non intendo, perché non è mio compito in questa sede, avventurarmi su considerazioni rispetto alla profilazione potenziata, fornibile da tali strumenti di Intelligenza artificiale e alla conseguente iper valorizzazione del dato personale e sensibile ma non posso non chieder(mi) come mai nessun alfiere della modernità si sia scagliato contro la limitazione del trattamento disposta dal Garante in data 2/2/23 nei confronti del chatbot Replika, un "chatbot basato sull’IA che genera un "amico virtuale" che l’utente può configurare come amico, partner romantico, o mentore"…

Misteri e disattenzioni che trovano la loro spiegazione in un settore che viaggia a velocità supersonica e che, pertanto, va regolamentato.