g-docweb-display Portlet

Un’arma di omologazione di massa? - Vale la pena bilanciare l’entusiasmo per ChatGPT e i suoi fratelli provando a riflettere su un paio di rischi: il pensiero unico e la compressione della privacy

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Un’arma di omologazione di massa?
Vale la pena bilanciare l’entusiasmo per ChatGPT e i suoi fratelli provando a riflettere su un paio di rischi: il pensiero unico e la compressione della privacy

Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
(Italian Tech - La Repubblica, 21 marzo 2023)

Questo testo fa parte dello Speciale IA di Italian Tech, dal titolo "Parla con me. La rivoluzione dell'intelligenza artificiale", in edicola gratuitamente con il quotidiano La Repubblica a partire da giovedì 23 marzo

Un po’ medico, un po’ confidente, un po’ secchione, un po’ poliedrico ed eclettico esperto nelle discipline più diverse, talvolta anche poeta, cantautore, giornalista e scrittore.

È così che negli ultimi mesi abbiamo conosciuto ChatGPT, che con le sue mirabolanti qualità ci ha già conquistati, mostrandoci gli straordinari benefici che l’intera sua stirpe ci potrà offrire negli anni che verranno.

Vale quindi la pena bilanciare l’entusiasmo, provando a riflettere su un paio di rischi con i quali dovremo vedercela.

Il primo è quello del “pensiero unico”: 200 milioni di persone – che diventeranno presto un miliardo e, poi, magari due – stanno ricevendo più o meno le stesse risposte alle stesse domande.

La malattia “x” si cura così, il miglior calciatore di tutti i tempi è stato “y”, i vini migliori sono quelli che si producono in “z, k, w”, la storia dell’Egitto racconta che…

Ma, naturalmente, ciascuno di noi ha già posto a ChatGPT domande decisamente più importanti sull’educazione dei figli, sulla politica e sull’economia, sulle religioni, sull’etica e chissà su quante altre questioni straordinariamente complesse e sensibili. E la più parte di noi sta prendendo per oro colato le risposte di ChatGPT perché pochi ne conoscono i limiti e i margini – in taluni casi anche importanti – di errore. “Parola di ChatGPT”, diventerà presto un’espressione che useremo come sinonimo di “verità”.

Che impatto avrà questo appiattimento della conoscenza globale sull’economia, la società, la religione e la politica? Quanto spazio resterà al pensiero critico, al confronto, alla diversità di vedute?  Il dubbio è che, senza rendercene conto, stiamo giocando con un’arma di manipolazione e omologazione di massa dell’opinione pubblica e della coscienza collettiva globale, almeno per il momento saldamente nelle mani di una manciata di Paperoni. 

E si sbaglierebbe se si cercasse conforto nell’esperienza fatta sin qui con Google, che pure il mondo intero interroga da diversi lustri, perché BigG non ci propone risposte take away ma una serie eterogenea di fonti nelle quali cercarle. Sta a noi formarci un’idea, per quanto indiscutibilmente condizionata dall’ordine con il quale gli algoritmi di Google ci propongono le diverse fonti.

Il secondo rischio riguarda la nostra privacy: interrogando ChatGPT, infatti, stiamo consegnando ai suoi algoritmi e ai suoi proprietari tanta, anzi, tantissima conoscenza su di noi.

Certo è già accaduto proprio con Google, con Meta, con Apple, con TikTok e le altre BigTech ma, sotto questo profilo, la modalità “chat” potrebbe essere una “killer application”, perché genera empatia, perché la risposta alla prima domanda stimola a porne una seconda e poi una terza e una quarta e a ogni domanda rischiamo, più o meno consapevolmente, di aprirci di più, talvolta quasi di confessarci, di disvelare paure, dubbi o, semplicemente, curiosità, interessi e le preferenze più intime, e lo facciamo in maniera diretta, sollevando chi sta dall’altra parte dello schermo persino dal fastidio di doverli desumere dalle nostre interazioni, dai nostri like, dalle nostre condivisioni o dai nostri commenti. E non basta. Perché in chat ci sentiamo anche più soli, meno osservati, meno in pubblico e più in privato e, quindi, più liberi di quanto non accada mentre interagiamo su un social network o interroghiamo un motore di ricerca.

La combinazione di questi due rischi potrebbe innescare la tempesta perfetta per la società globale: i padroni degli algoritmi, infatti, potrebbero arrivare a conoscerci meglio di quanto già oggi ci conoscono e disporre di strumenti ancora più efficaci per comprimere la nostra libertà di autodeterminarci in ogni genere di scelte.