Governare l’AI (OPEN ED)

Il caso ChatGPT: il diritto di non scegliere tra innovazione e libertà

A cura di Guido Scorza

Qualche mese fa, il Garante per la protezione dei dati personali italiani, primo al mondo, ha ordinato a OpenAI, la società che ha sviluppato e gestisce ChatGPT – sin qui la più famosa intelligenza artificiale generativa di tutti i tempi – di sospendere il trattamento dei dati personali raccolti in Italia o, comunque, relativi a persone residenti in Italia in ragione diverse, probabili violazioni della disciplina sulla privacy.

All’indomani, come è noto ai più, Open AI ha reso il proprio servizio inaccessibile dal nostro Paese.

Apriti cielo.

I social – e, per la verità anche alcune testate giornalistiche blasonate – sono letteralmente impazziti: l’Italia sembrava aver identificato in ChatGPT il «campione», in odor di santità, dell’innovazione e nel Garante per la privacy l’antagonista pagano, determinato a minacciare la «santa innovazione», a stelle e strisce.

Ne è nata un’autentica crociata nell’ambito della quale al grido «innovare, innovare, innovare», centinaia di migliaia di persone di estrazione diversissima hanno cominciato ad argomentare che la tutela del diritto alla privacy non avrebbe dovuto spingersi a bloccare l’innovazione e a dare, del nostro Paese, l’immagine di un Paese retrogrado e luddista.

Ma tutto questo, ormai, è storia o, almeno, dovrebbe esserlo.

Decine di Autorità in giro per il mondo, infatti, hanno cominciato a interrogarsi sulla legittimità di ChatGPT; a Bruxelles, in seno al Board dei garanti per la protezione dei dati personali (EDPB), è stata istituita una task force per identificare un approccio comune su una questione universalmente riconosciuta di straordinaria rilevanza e Sam Altman, il CEO di OpenAI, si è presentato davanti al Congresso americano chiedendo regole e vigilanza.

Insomma, nessun “caso Italia”, nessuna crociata italiana contro la santa innovazione.

Si era semplicemente identificato, magari con qualche settimana di anticipo, una questione che era e resta globale.

E, d’altra parte, oggi ChatGPT è di nuovo accessibile anche in Italia dopo che OpenAI ha adempiuto a un nuovo provvedimento, questa volta prescrittivo del Garante, rendendo il proprio servizio un po’ più trasparente e un po’ più rispettoso dei diritti e delle libertà delle persone.

Ma siamo solo all’inizio di una vicenda che è lontana dal potersi considerare conclusa – l’istruttoria è ancora alle sue battute iniziali – e che, comunque, è solo la punta dell’iceberg dei rapporti tra innovazione, regole, diritti e libertà ai tempi degli algoritmi e dell’intelligenza artificiale.

E quella di ChatGPT resta un’occasione utile per affrontare il problema – quello di metodo più che quello di merito – del governo del progresso tecnologico.

Vale, quindi, la pena, forse, mettere in fila alcune lezioni che la vicenda ci ha già consegnato.

Le regole servono a garantire diritti e libertà e garantirne l’applicazione – come ha fatto il Garante italiano con la sua iniziativa nei confronti di OpenAI - risponde alla stessa esigenza, un’esigenza irrinunciabile in democrazia e un’esigenza che non può, per definizione, mai porsi in antitesi con l’innovazione, almeno se si crede che l’innovazione non sia qualunque risultato del progresso tecnologico ma solo quello capace di accrescere il benessere collettivo.

E, naturalmente, il benessere collettivo non può essere il risultato del travalicamento e travolgimento dei diritti e delle libertà delle persone.

Ecco un’altra lezione.

Chi l’ha detto che bisogna scegliere tra progresso tecnologico e diritti?

Chi l’ha detto che esigere il rispetto dei secondi significa avercela con la prima e volerla frenare?

Non è così, non può esserlo e non deve esserlo.

Diritto a fare impresa, diritto a innovare, diritto alla protezione dei dati personali sono tutti tasselli irrinunciabili del patrimonio genetico della nostra democrazia e della nostra società.

È sbagliato per principio porre un cittadino, un imprenditore, un utente o un consumatore davanti a un bivio che in realtà non esiste: da una parte il progresso e dall’altra i diritti e le libertà.

Non è quello che deve accadere.

E la storia di ChatGPT, in effetti, sembra raccontarlo in maniera plastica.

Perché quando si è ordinato a OpenAI la sospensione del trattamento dei dati personali, ci si è, in fondo, limitati a ricordare a una società commerciale americana nella quale una corporation del calibro di Microsoft aveva da poco investito oltre 10 miliardi di dollari e che in pochi mesi aveva raggiunto quasi 200 milioni di utenti che le regole, i diritti e le libertà vanno rispettati sempre e da tutti a prescindere da quanto sia “innovativo” il servizio che si offre, a prescindere dall’utilità che lo stesso può produrre per la società, a prescindere dal sacrosanto e legittimo perseguimento del diritto di fare impresa.

E non è stato un fatto di capricciosa applicazione di regole di dettaglio.

OpenAI ha addestrato i propri algoritmi – quelli sui quali si fonda il suo business e le straordinarie potenzialità dei suoi servizi – pescando a strascico, almeno online, miliardi di dati, anche personali, di miliardi di persone senza dir loro nulla e senza offrire loro neppure la possibilità di opporsi a questo trattamento coatto.

Una cosa che la disciplina europea, con poche eccezioni, non consente neppure a chi fa ricerca medica o scientifica.

Ma non basta perché ChatGPT, interrogata per il nome e il cognome di una persona, talvolta soffre di “allucinazioni” e associa a quella persona, fatti e circostanze non veritieri: di un professore americano, per esempio, ha detto che avrebbe sessualmente molestato una studentessa in Alaska senza che fosse mai andato in Alaska e, soprattutto, avesse mai molestato nessuno.

Sono cose capaci di distruggere letteralmente la vita di una persona.

Quale avrebbe dovuto essere e quale dovrebbe essere il ruolo dello Stato in tutte le sue articolazioni in casi come questi?

Farsi spettatore e lasciar fare al mercato?

Lasciare al mercato – a un mercato, peraltro, asfittico e oligopolistico come quello digitale – il compito di regolare sé stesso?

La sensazione, in tutta franchezza, è che rispondere affermativamente non sia possibile.

E che, ugualmente, sarebbe sbagliato suggerire un’antitesi e una contrapposizione che non c’è tra regole e progresso.

Questa contrapposizione non esiste e non può esistere sotto l’ombrello della nostra Costituzione che non ammette diritti tiranni e non consente quindi né al diritto alla privacy di fagocitare la libertà di impresa e quella a innovare, né a queste ultime di fagocitare il diritto alla privacy o altri diritti e libertà fondamentali.

La parola d’ordine in questi casi è bilanciamento.

E l’algoritmo di bilanciamento è sempre lo stesso: comprimere un diritto nella misura minima necessaria a garantire il rispetto e l’esercizio dell’altro.

Ed è questo l’algoritmo che si è applicato: all’indomani del primo provvedimento si è aperto un confronto con OpenAI, si è capito fin dove la società potesse spingersi nell’immediato per conformarsi alla disciplina europea, si è imposta con un nuovo provvedimento una serie di correttivi e si è consentito alla società di tornare a rendere accessibile ChatGPT anche in Italia in attesa dell’attività istruttoria frattanto avviata.

Oggi il servizio è più trasparente e più rispettoso dei diritti e delle libertà delle personali anche se, forse, non abbastanza e di questo si discuterà nel corso del procedimento in corso.

Le regole, i diritti e le libertà possono e devono essere tradotti in vincolo tecnologico, devono orientare il progresso, plasmare e dare forma agli algoritmi, non vietare, bloccare o ostacolare ma guidare l’innovazione verso quella che dovrebbe sempre esserne la finalità ultima: massimizzare, accrescere e amplificare il benessere collettivo.

Ma come si fa a riuscire nell’impresa?

Nessuno, probabilmente - specie in una stagione come questa della vita del mondo in cui tutto scorre veloce, tutto cambia e si trasforma e l’imprevedibilità è l’unica certezza – ha la risposta ma il dialogo e il confronto interdisciplinare sembrano destinati a avere un ruolo essenziale nella ricerca di una soluzione.