"L’AI è uno strumento fondamentale, ma serve un security manager preparato per utilizzarla al meglio per difendersi dalle infiltrazioni criminali"
A cura di Alessandro Manfredini
C’è solo un modo per sfruttare al massimo le potenzialità dell’intelligenza artificiale: investire sull’intelligenza biologica.
Una premessa doverosa. È del tutto evidente che l’avvento in maniera massiccia e diffusa dell’intelligenza artificiale rappresenti un’opportunità senza precedenti per l’implementazione dei livelli di sicurezza di moltissimi ambiti. Dalle infrastrutture fisiche critiche, agli esercizi commerciali. Dai sistemi di videosorveglianza delle nostre città, agli istituti di credito. Non esiste ambito o settore nel quale l’intelligenza artificiale non potrebbe rappresentare un’arma in più per la protezione dei cittadini, della loro incolumità, della loro salute, dei loro possedimenti e, perché no, dei loro dati personali.
Questo perché l’AI ci consente di raccogliere, organizzare, rielaborare e restituire una serie infinita di informazioni utili a sviluppare previsioni, programmare interventi infrastrutturali, definire piani operativi di intervento e prevenzione. Tutto grazie alla capacità elaborativa dei dati e alla capacità dell’intelligenza artificiale di lavorarli in tempi rapidissimi.
Ma dove risiede la soluzione, spesso si nasconde anche il problema. In questo caso l’anello debole dell’intero sistema sono proprio i dati. O meglio, i dataset di cui l’intelligenza artificiale si nutre per elaborare “pensieri” e risposte utili agli utenti e, in alcuni specifici casi, ai Security manager.
I principali modelli di apprendimento dell’Intelligenza artificiale sono essenzialmente due: il machine learning e il deep learning.
Il secondo è direttamente ispirato al cervello umano ed è in grado di indagare gli schemi complessi contenuti nelle grandi quantità di dati - nei testi, nelle musiche o nelle immagini - individuando i modelli ricorrenti ed estrapolandone informazioni accurate. Il tutto in perfetta autonomia e con il vantaggio di riconoscere gli errori comuni.
Più semplice, ma paradossalmente più vulnerabile è il primo modello, il machine learning.
In questo caso l’apprendimento avviene attraverso algoritmi che leggono e interpretano dataset più piccoli, ma in maniera progressiva, sviluppando previsioni tanto più accurate quanti più dati hanno a loro disposizione.
Ed è esattamente qui, nella somministrazione delle informazioni e dei dataset che si nasconde la principale minaccia per l’efficacia delle Intelligenze artificiali e di conseguenza per la sicurezza dei servizi ad essa affidata.
I cyber criminali, infatti, stanno iniziando a sfruttare l’impiego dell’intelligenza artificiale a proprio vantaggio e per farlo lavorano proprio sui dati appannaggio del machine learning.
L’inserimento fraudolento di informazioni non corrette all’interno di questi dataset può determinare un malfunzionamento progressivo dell’AI stessa, con conseguenze anche gravi per l’utenza.
Un esempio. La sostituzione dell’indicazione “livello d’allerta” con “livello di guardia” all’interno di una centralina pluviometrica potrebbe impedire il corretto funzionamento dei sistemi di avviso diretto della popolazione in caso di innalzamento eccessivo di un corso d’acqua. Invece di un’allerta di massimo livello, l’AI potrebbe trovarsi a segnalare un’allerta inferiore, pregiudicando l’entrata in funzione dei piani di protezione civile e pronto intervento.
Un’altra ipotesi, non meno pericolosa, è quella di un’infiltrazione a monte, in grado di compromettere e modificare anche solo parzialmente l’intero dataset da dare in pasto all’AI in una determinata azienda o in un determinato servizio. Il risultato è la compromissione delle intere previsioni e del funzionamento stesso dei sistemi informatici.
Per mettersi al riparo da fattispecie simili di cyber attacchi, c’è solo un rimedio: mettere il professionista al centro del sistema di sicurezza. Privilegiare cioè l’intelligenza biologica a quella artificiale, rendendo quest’ultima uno strumento nelle mani della prima.
E qui però si aprono altri due problemi dei quali il legislatore non può non tenere conto.
Il primo è quello della ridotta libertà di manovra che hanno i security manager nell’utilizzo dei sistemi di intelligenza artificiale.
Mentre negli Stati Uniti la regolamentazione generale è estremamente blanda, non altrettanto si può dire dell’UE; con il voto del 14 giugno scorso, infatti, il Parlamento europeo ha dato il via ad un processo che porterà Bruxelles a legiferare in maniera stringente sull’intelligenza artificiale entro le elezioni comunitarie del giugno prossimo. Al netto di due anni di compliance volontaria da parte delle aziende, quel che si rischia con questa norma è che le forze dell’ordine e i security manager abbiano armi spuntate nell’uso di questi sistemi, in particolare al confronto con i cybercriminali per i quali non esistono paletti.
Il secondo problema rischia di essere ancor più impattante. Nel settore della security, in particolare la cyber, mancano professionisti e aspiranti tali.
I dati diffusi dalla stessa Commissione europea raccontano che il 77% delle aziende soffre la mancanza di personale adeguatamente formato. Inoltre il Global Cybersecurity Outlook 2023 del World Economic Forum, sostiene che solo il 46% dei responsabili cyber aziendali sia convinto di avere all’interno della propria organizzazione le persone e le risorse necessarie a fronteggiare un attacco cibernetico.
Un gap di competenze cresciuto esponenzialmente negli ultimi 10 anni, in ragione dell’esplosione della domanda di figure professionalizzate.
L’effetto combinato di una regolamentazione eccessivamente stringente e di un percorso formativo non adeguato alle esigenze del mercato della security rende tutto questo un’emergenza nazionale e comunitaria. Purtroppo però le misure per invertire il trend, restituendo centralità all’intelligenza biologica, sono ancora tutte in fase sperimentale. E da verificare la loro efficacia.