g-docweb-display Portlet

Le basi poste dall'UE (che ha regolato per prima il settore) - Intervento di Pasquale Stanzione

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Le basi poste dall'UE (che ha regolato per prima il settore) 
Il fulcro della normativa europea sull'intelligenza artificiale risiede nella convergenza tra innovazione e libertà, espressa in particolare dalla tassonomia dei livelli di rischio dei vari usi dell'IA sino a quelli vietati perché potenzialmente idonei a violare la dignità umana, la libertà cognitiva o amplificare le discriminazioni delle queli, invece, proprio le macchine avrebbero dovuto liberarci
Intervento di Pasquale Stanzione, Presidente del Garante per la protezione dei dati personali
(Formiche, gennaio 2024)

L’AI Act- su cui il 9 dicembre scorso è stato raggiunto un accordo, provvisorio ma determinante, tra i negoziatori del Parlamento europeo e la Presidenza del Consiglio- rappresenta una pietra miliare nella regolazione delle neotecnologie: la prima disciplina al mondo, di taglio generale, dell’i.a.  Ed è significativo che la “primazia”, cronologica ma anche assiologica, nella regolazione di questa straordinaria tecnologia (dalle potenzialità preziose ma anche rischiose, se non ben regolate) spetti all’Europa. A ciascuna delle norme dell’AI Act è, infatti, sottesa una linea chiara di politica del diritto, che mai come nel caso della governance del digitale esprime i valori europei, la stessa identità dell’Unione Europea come “comunità di diritto”.  L’aspirazione a rendere l’i.a. “trustworthy”, affidabile e la sua disciplina “future-proof” racconta molto, infatti, dell’idea europea di innovazione e, al contempo, della tutela della persona (da garantire anche rispetto a usi distorsivi della tecnica) che, secondo la Carta di Nizza, è posta al centro della stessa azione dell’Unione.

E’ anzitutto determinante la stessa scelta in favore della regolazione, in un contesto in cui la frequente tendenza alla deregulation finisce per delegare alla legge del mercato la definizione del perimetro di diritti e libertà. Per altro verso, opzioni normative centrali sono l’approccio fondato sul rischio, i divieti funzionali alla tutela dei diritti fondamentali potenzialmente incisi o al contrasto degli usi discriminatori dell’algoritmo, la riserva di decisione umana, l’esigenza di trasparenza di cui è espressione significativa l’obbligo di esplicitare la derivazione da i.a. dei contenuti.  

Il fulcro della normativa europea risiede nella convergenza tra innovazione e libertà, espressa in particolare dalla tassonomia dei livelli di rischio dei vari usi dell’intelligenza artificiale, sino a quelli vietati perché potenzialmente idonei a violare la dignità umana, la libertà cognitiva o amplificare le discriminazioni dalle quali, invece, proprio le macchine avrebbero dovuto liberarci. Di qui, ad esempio, il divieto di ricorso al riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, alla manipolazione comportamentale cognitiva o a tecniche tali da sfruttare le vulnerabilità soggettive o, ancora, al social scoring. La classificazione delle persone in base al comportamento sociale, alla condizione socio-economica, alle caratteristiche soggettive, già di per sé problematica, lo diviene ancor più - come dimostra il sistema antifrode olandese Syri -se affidata a un algoritmo, con bias che possono caratterizzarlo (per scarsa inclusività e sub-rappresentatività del set di dati su cui si è formato), distorcendone l’esito.

Significativi sono anche i limiti posti alla congiunzione tra potere investigativo e potenza della tecnica, che impone condizioni tanto più stringenti quanto più avanzato sia il grado d’autonomia decisionale della macchina. Così, si vietano alcuni sistemi di polizia predittiva e si circoscrivono le eccezioni al divieto di riconoscimento facciale, in luoghi pubblici. 

L’utilizzo dell’intelligenza artificiale nel settore investigativo necessita, infatti, cautele tali da scongiurare il rischio della delega all’algoritmo di attività potenzialmente incidenti sulla libertà personale e della sorveglianza massiva. Ciò che si teme non è tanto e non è solo il “pendio scivoloso”, quanto la tendenza all’acritica accettazione sociale di una progressiva limitazione della libertà. 

Per altro verso, l’utilizzo dell’i.a. nel campo della ricerca è agevolato e tanto più potrà essere valorizzato grazie alla possibilità di condivisione dei dati a fini solidaristici e, appunto, di promozione della ricerca consentita dal Data Governance Act, con l’innovativo istituto dell’altruismo dei dati. 

La dimensione “costituzionale” dell’AI Act (quale aspirazione alla tutela dei diritti e delle libertà fondamentali dai rischi potenzialmente derivanti da un uso anomico della tecnica) suggerirà tuttavia, in fase discendente, di valorizzare le garanzie di indipendenza dell’Autorità nazionale competente in materia di i.a.  anche attribuendone il ruolo alle Autorità di protezione dati, come suggerito dal Comitato europeo per la protezione dati e, dinanzi alla Camera, dal Garante.