Se osserviamo con attenzione alcuni fenomeni legati all'uso delle tecnologie digitali, possiamo notare che l’esposizione sul cyberspace di sistemi IT (Information Technology) e OT (Operational Technology) è in continua crescita e che l’utilizzo dell’Intelligenza Artificiale interconnessa ai sistemi fisici ricopre sempre più un ruolo fondamentale nei processi di controllo tra quei sistemi che utilizzano sensori ed attuatori.
Il 60% delle aziende che utilizzano l'intelligenza artificiale in questi ambiti, ammettono che i rischi ad essa collegati sono sicuramente importanti e tra i più critici.
L’Intelligenza Artificiale ci apre tuttavia la strada non solo al rischio di nuove tipologie di attacco ma anche a nuove possibilità di difesa e ciò significa che i paradigmi di risk assessment su questi sistemi critici hanno oggigiorno la necessità di essere rivisti.
Proprio qui entra in gioco un progetto finanziato dall’Unione Europea (European Commission's Horizon 2020 program), con un budget di circa quattro milioni di euro: il progetto KINAITICS.
Il progetto KINAITICS - Cyber-kinetic attacks using Artificial Intelligence - nasce ufficialmente nell’Ottobre 2022 grazie alla collaborazione di sette partner provenienti da cinque diverse nazioni europee, tra questi tre sono italiani (Pluribus One, Fondazione Toscana G.Monasterio ed Engineering) e gli altri quattro europei: il Commissariat à l’Energie Atomique et aux Energies Alternatives (CEA), il Centre for Research & Technology Hellas (CERTH), Vicomtech e la Katholieke Universiteit Leuven.
Il progetto internazionale si propone di esplorare le nuove opportunità di attacco offerte dall'introduzione di sistemi di controllo basati sull'intelligenza artificiale e di studiare nuovi approcci di difesa per aumentare robustezza e resilienza e proteggerli dagli attacchi.
È proprio in questo settore che l’AI ricopre un ruolo importante favorendo una migliore comprensione della natura dei rischi emergenti e l'adozione di innovativi approcci di sicurezza.
Ciò viene fatto attraverso la creazione di un framework integrato, la valutazione dei potenziali rischi e della loro evoluzione e lo studio degli aspetti legali, etici e relativi alla compliance sulle normative e regolamentazioni in materia AI come il GDPR, la direttiva NIS2 e l’AI Act.
Uno degli aspetti chiave riguarda la trasparenza. Gli algoritmi di AI devono essere comprensibili per evitare decisioni opache o incomprensibili, un fenomeno noto come black box.
In contesti critici, come il triage medico automatizzato o il controllo di processi industriali, decisioni non trasparenti possono generare sfiducia o, peggio, mettere in pericolo vite umane.
Inoltre, la bias algoritmica (ovvero l'influenza di pregiudizi impliciti o distorsioni nei dati che portano a decisioni sistematicamente parziali) rappresenta un rischio concreto. Se i dati di addestramento non sono rappresentativi o contengono pregiudizi, le decisioni del sistema potrebbero risultare discriminatorie, ingiuste o inadatte. Ad esempio, un sistema di sicurezza basato sull'AI potrebbe privilegiare o penalizzare certe categorie di persone in base a caratteristiche non rilevanti, come l'etnia o il genere.
Un nuovo framework integrato
Il framework di difesa sviluppato in KINAITICS è strettamente collegato al suo cyber range, uno strumento creato appositamente per formare e addestrare il personale attraverso esercitazioni cyber e per aiutare i ricercatori nella simulazione di attacchi reali. Implementando le strategie di difesa con strumenti di AI, coordinate dal lavoro dell'uomo, il cyber range si concentra sia sulle vulnerabilità digitali che su quelle fisiche e funge da banco di prova per attacchi di vario genere aiutando a testare le capacità di assessment di sicurezza in tempo reale.
Il framework di difesa, diviso in quattro moduli, comprende:
- il monitoraggio di tipo behavioural (comportamentale) degli individui, dei sistemi industriali di controllo (ICS) e del software;
- il sistema di supporto decisionale che aiuta a suggerire o applicare contromisure per mitigare gli effetti di un incidente informatico;
- il modulo di social engineering basato su Machine Learning (ML) e Natural Language Processing (NLP), ed infine l'impiego di meccanismi di difesa ibrida AI-user.
L’utilizzo di ML e AI porta benefici sostanziali delle performance ma anche potenziali nuovi rischi. Criminali informatici potrebbero avere come target i sistemi di AI attraverso vari metodi, come ad esempio il data poisoning (ovvero l'avvelenamento dei dati) durante il training, che porterebbe l’AI a prendere decisioni sbagliate, infatti la crescente complessità dell'AI porta con sé nuove vulnerabilità.
Tra i principali, il rischio di attacchi ai dati di addestramento può compromettere la capacità dell'intelligenza artificiale di prendere decisioni affidabili.
Mettere in sicurezza questi sistemi non è un lavoro semplice e richiede una profonda conoscenza delle tecniche utilizzate dagli attaccanti. L’utilizzo all’interno del progetto di framework già esistenti come quelli MITRE ATT&CK e ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) aiuta a comprendere più a fondo e a identificare e gestire i rischi legati all'intelligenza artificiale, offrendo soluzioni continuamente aggiornate.
Proprio facendo riferimento ad ATLAS è possibile immaginare casi d'uso realistici... Immaginiamo per esempio un impianto industriale dove sensori difettosi possono causare incidenti, l'uso del framework KINAITICS può aiutarci a prevedere anomalie, suggerendo interventi prima che si verifichino problemi, è questo il caso dell'impiego del Digital Twin (gemello digitale) di un sistema utilizzato sempre più spesso per modellare e prevedere il suo comportamento ideale e verificare che non vi siano scostamenti che possano mettere a rischio la funzionalità e la sicurezza fisica dell'impianto. L'impiego dei Digital Twins è vantaggioso ma allo stesso tempo estende le possibilità di attacco: pensate a cosa può accadere se un cybercriminale riuscisse a modificare il comportamento o il modello del digital twin, inducendo gli operatori in errori teoricamente fatali.
Altra minaccia in continua crescita è quella dei Bad Bots, impiegati per vari scopi ma soprattutto per raccogliere informazioni in modo automatico. Tali bot stanno diventando sempre più sofisticati e secondo l'ultimo report di Imperva ormai fanno uso intensivo di modelli di AI che consentono di emulare il comportamento umano per evitare di essere individuati. Basti pensare che nel 2023 il 49,6 % dell'intero traffico internet risulta essere prodotto da Bad Bots e Good Bots.
Strumenti come KINAITICS potrebbero essere utili per migliorare le capacità di individuazione dei Bad Bots permettendo di distinguerli da "Good Bots" e esseri umani proprio grazie alle capacità di ML e AI di cui è dotato.
In definitiva, la crescente integrazione tra sistemi fisici e l'intelligenza artificiale apre nuove interessanti prospettive ma anche nuove vulnerabilità. Attacchi come il data poisoning o tecniche di model inversion, che permettono di ricostruire informazioni sensibili a partire dai modelli AI, possono minacciare la sicurezza dei processi. Inoltre, la connessione con sensori e attuatori espone i sistemi a rischi cinetici, dove un attacco digitale può avere conseguenze fisiche, come il danneggiamento di macchinari o il sabotaggio di infrastrutture critiche.
L'approccio del progetto KINAITICS, basato su simulazioni reali e framework adattivi, rappresenta un passo avanti nella mitigazione di questi rischi emergenti.
Progetti come KINAITICS non solo migliorano la sicurezza dei sistemi, ma gettano le basi per standard futuri che guideranno l'uso responsabile e sicuro dell'intelligenza artificiale nell'era della connettività globale.