Intervista alla Prof. Mariarosaria Taddeo a cura di Federico Giberti
Mariarosaria Taddeo è Professoressa di Etica Digitale e Tecnologie della Difesa presso l’università di Oxford. È anche Direttrice del Programma del Dottorato in Informazione, Comunicazione e Scienze Sociali presso l'Oxford Internet Institute e Fellow di Etica presso l'Alan Turing Institute. Il suo lavoro recente si concentra sull'etica e la governance delle tecnologie digitali, e spazia dalla progettazione di misure di governance per sfruttare l'intelligenza artificiale (IA) fino a affrontare le sfide etiche legate all'uso delle tecnologie di difesa nella cyber, all'etica della sicurezza informatica e alla governance dei conflitti cibernetici. Ha pubblicato oltre 150 articoli in questa area, concentrandosi su argomenti come tecnologie digitali affidabili, governance dell'innovazione digitale, governance etica dell'IA per la difesa nazionale, etica della sicurezza informatica. Il suo lavoro è stato pubblicato in importanti riviste come Nature, Nature Machine Intelligence, Science e Science Robotics.
L'Intelligenza Artificiale (IA) è una forza motrice per l'innovazione tecnologica e il progresso economico. Argomento padroneggiato da pochi sino al recente passato, grazie all’approdo di large language model fruibili liberamente da tutti in rete, questa tecnologia è da mesi oramai entrata nel flusso del main stream. Naturalmente attirando opinioni divergenti, fautori e censori e una lunga scia di speculazioni e misinformazione.
Per dirimere alcune delle aree più grige e discusse di questa tecnologia, ne abbiamo parlato con Mariarosaria Taddeo, Professor of Digital Ethics and Defence Technologies presso l’Università di Oxford.
Professoressa Taddeo, nell'attuale dibattito sull'Intelligenza Artificiale ci sono preoccupazioni riguardo alla sua potenziale minaccia esistenziale per l'umanità; è il classico allarmismo dettato dalla paura del nuovo che avanza?
Non è una minaccia, almeno non nei termini in cui è stata descritta da alcuni. La paura che l'Intelligenza Artificiale possa diventare intelligente come un essere vivente è infondata, sconfina nella fantascienza.
Questo non vuol dire che l’IA non ponga dei rischi concreti, che è importante identificare tempestivamente per cercare di limitare. Focalizzarsi sui cosiddetti rischi esistenziali non solo è una distrazione inutile che rischia di rallentare gli sforzi per capire questi rischi, ma ha anche l’effetto di polarizzare il dibattito su usi e governance dell’IA. L’IA, con il digitale, è la cifra delle nostre società. Un dibattito pubblico informato, non polarizzato, è cruciale per arrivare a definire misure di governance che rispecchino i nostri valori.
Nel periodo di massimo fervore mediatico sull'Intelligenza Artificiale, è uscito uno studio di Goldman Sachs che annunciava – entro il 2030 – la scomparsa di 300 milioni di posti di lavoro a causa della tecnologia IA, è realistico fare queste previsioni?
La valutazione del numero di posti di lavoro che saranno persi o guadagnati a causa dell’IA richiede una modellizzazione estremamente accurata di un fenomeno complesso.
Nel migliore dei casi le stime sono approssimative. Il tema del lavoro è senz'altro importante, ma per capire implicazioni e veridicità di stime come quella che mi ha citato possiamo attingere ad un altro esempio che ha fatto molto discutere: i veicoli a guida autonoma, anch’essi al centro di molte discussioni. Una delle professioni che si riteneva più a rischio in US nello scorso decennio per via dell’IA era quella degli autotrasportatori. Si credeva ad un certo punto che si sarebbero persi tra i 2 e 3 milioni di posti di lavoro in questo settore in US. Un’analisi relativamente recente (pubblicata su Harvard Business Review) mostra che i numeri sono molto più contenuti se consideriamo in dettaglio questa professione. Un autista svolge molte altre mansioni oltre a guidare un veicolo. Si occupa anche del carico e dello scarico della merce, firma i documenti necessari e gestisce varie attività correlate. In altre parole, il lavoro di un autista non può essere ridotto ad un singolo compito, guidare un camion, e coinvolge una serie di compiti complessi che le macchine al momento non possono eseguire. Quindi, le previsioni che indicano la scomparsa di questi posti di lavoro devono essere prese con cautela. È importante notare che, sebbene l’IA possa cambiare il modo in cui svolgiamo alcune attività professionali, non significa necessariamente la completa sostituzione degli esseri umani. Potrebbe comportare la trasformazione delle attività professionali, ma non necessariamente la loro estinzione. Quindi, mentre è importante considerare il potenziale impatto dell'IA sul lavoro, non dovremmo adottare un approccio allarmistico. La realtà è molto più complessa di quanto possano suggerire stime più o meno precise, e i meccanismi coinvolti sono difficili da modellare con precisione.
Altro tema “caldo” è stato quello della possibilità concreta che gli esseri umani non rivestano più il ruolo del “decisore” nei processi grazie all’introduzione di algoritmi più efficaci. Come valuta questo timore?
Qui dobbiamo fare una precisazione, utilizziamo già l’IA per prendere molte decisioni al posto nostro. Per esempio, pensiamo agli algoritmi che contribuiscono a definire i risultati di ricerche su Internet o alle decisioni di assunzione prese con l’aiuto dell’IA. Un esempio noto è quello di Amazon, che utilizzava un sistema IA per il processo di selezione del personale e ha scoperto che l’IA tendeva a discriminare le donne a favore degli uomini, suscitando preoccupazione pubblica. Tuttavia, è importante notare che l’IA attualmente assolve a compiti specifici e limitati. Nel caso dell'assunzione, l'IA potrebbe essere coinvolta solo in alcune fasi del processo, ma non sovrintende a tutto il processo di selezione o gestisce tutte le funzioni. A mio avviso le questioni sono due; quali compiti deleghiamo alle macchine e che processi (p.e. di audit) abbiamo per capire quando e perché l’uso dell’IA nei processi decisionali porta a risultati indesiderati.
La sfida, attualmente, sta nel comprendere come le attività professionali potrebbero evolversi in futuro. Dovremo adattare la nostra formazione per preparare i professionisti a lavorare in un ambiente in cui l’IA è un membro del gruppo di lavoro. Diventa quindi importante che professionisti, in diversi ambiti, capiscano come utilizzare l'IA in modo etico e responsabile, magari attraverso delle certificazioni. Oltretutto dovremo affrontare anche le questioni relative alla discriminazione e alla sicurezza dell'IA, poiché le macchine possono essere vulnerabili agli attacchi o produrre risultati non etici se non gestite correttamente. La sfida è trovare un equilibrio tra le capacità delle macchine e le competenze umane, in modo che gli esseri umani possano rimanere al controllo e contribuire in modo produttivo, mantenendo un ruolo centrale nei processi decisionali.
Abbiamo parlato in apertura del “circus” mediatico che ha accompagnato un po’ tutto il dibattito sull’IA. Però al momento, apparentemente, sembra che i player siano principalmente privati, è il momento che le istituzioni prendano una posizione?
È una questione molto interessante perché c’è bisogno di una governance per allineare la progettazione, sviluppo e uso di sistemi IA con i valori delle nostre società. Questo è un compito che spetta alle istituzioni. La governance dell’IA deve avere l’obbiettivo di creare un ambiente favorevole all'innovazione - fornire incentivi, finanziamenti, e supportare l'ecosistema di startup attraverso incubatori e altre iniziative, definire misure per trattenere i talenti – ma deve anche definire criteri per bilanciare interessi legittimi ma opposti. Consideriamo per esempio il caso dell’IA generative, ChatGPT in particolare: da un lato abbiamo un forte fattore di innovazione, un sistema IA che potrebbe aumentare la produttività di tutti noi, dall’altro abbiamo la necessità di proteggere il copyright dei dati usati per allenare questo modello. Oppure, da un lato una tecnologia che ci permette di scrivere testi molto velocemente, dall’altro il rischio che ci inondi di disinformazione mettendo a rischio il dibattito pubblico e i processi democratici (si pensi all’impatto delle cosiddette fake news sul referendum per la Brexit). È innegabile il ruolo del legislatore in questo processo come garante dello sviluppo etico e sicuro dell’IA. Le istituzioni pubbliche hanno il dovere di definire le regole che disciplinano cosa e come può essere sviluppato, come l’IA può essere utilizzato. Per esempio, consideriamo l'importante impatto ambientale dell'IA, soprattutto dei modelli generativi; è essenziale che i legislatori intervengano per regolamentare questo settore e garantire che le aziende rispettino gli standard ambientali. C’è bisogno di definire e anche espandere uno spazio per l'innovazione, ma questo spazio non può essere una sorta di "Far West" senza regole, dobbiamo invece stabilire un quadro normativo che guidi e regoli lo sviluppo tecnologico in modo sostenibile e responsabile. In caso contrario, rischiamo di perdere serie sfide ambientali e sociali e anche di rallentare l’innovazione. Perché se le nuove tecnologie producono risultati che le nostre società trovano inaccettabili, allora non saranno adottate e non ci sarà innovazione.
L’unione Europea ha mosso un primo passo tramite il suo AI ACT, la direzione è giusta?
Io credo che sia l’inizio di un sentiero sicuramente tortuoso, ma corretto. Ritengo che regolamentare non significhi solo limitare, ma anche dare una direzione a queste innovazioni.
L'Unione europea ha già sviluppato con successo dei framework regolamentativi, come il GDPR, il DSA e il DMA, che regolamentano servizi digitali e concorrenza.
Considerati tutti insieme questi acts definiscono un framework regolamentativo finalizzato ad assicurare che lo sviluppo e l’uso dell’IA nei confini EU avvenga nel rispetto dei nostri valori. Non dimentichiamoci che l’EU è stata la prima a definire un framework regolamentativo articolato per la goverance del digitale e che nel farlo si posta in una posizione di leadership internazionale.
Per concludere, cosa dire a chi si è già immaginato scenari da Matrix o spettri di un HAL 9000? Sono il passo successivo?
Direi che anch’io vorrei avere la versione aggiornata di HAL 9000 sul mio cellulare, ma che, per quanto ho potuto vedere e studiare, non ci siamo ancora. Perché l’IA che sviluppiamo, anche i modelli generati, non è fatta di altro che di potenti calcolatori capaci di fare calcoli statistici molto complessi. Non ci sono intenzioni, non ci sono idee, non ci sono emozioni, non c’è nulla di tutto questo. L’IA – in un certo senso - è così come ci appare.