Sfide di cybersecurity nell’uso dell’AI nelle auto a guida autonoma

Un report dell’Agenzia dell’Unione europea per la sicurezza informatica (ENISA) e il Centro comune di ricerca (JRC) esamina i rischi di sicurezza informatica connessi all’intelligenza artificiale (AI) nei veicoli autonomi e fornisce raccomandazioni per mitigarli.

Eliminando la causa più comune degli incidenti stradali – il guidatore umano – ci si aspetta che i veicoli autonomi riducano gli incidenti stradali e i decessi. Tuttavia, possono rappresentare un tipo di rischio completamente diverso per i conducenti, i passeggeri e i pedoni.

I veicoli autonomi utilizzano sistemi di intelligenza artificiale, che impiegano tecniche di apprendimento automatico per raccogliere, analizzare e trasferire dati, al fine di prendere decisioni che nelle auto convenzionali sono prese da esseri umani. Questi sistemi, come tutti i sistemi informatici, sono vulnerabili agli attacchi che potrebbero compromettere il corretto funzionamento del veicolo.

“È importante che i regolamenti europei assicurino che i benefici della guida autonoma non siano controbilanciati da rischi per la sicurezza. Per sostenere il processo decisionale a livello UE, il nostro rapporto mira ad aumentare la comprensione delle tecniche di IA utilizzate per la guida autonoma, nonché i rischi di cybersecurity ad esse collegati, in modo che le misure possano essere adottate per garantire la sicurezza dell’IA nella guida autonoma”, ha detto il direttore generale del JRC Stephen Quest.

Vulnerabilità dell’IA nei veicoli autonomi

I sistemi AI di un veicolo autonomo lavorano senza sosta per riconoscere i segnali stradali e la segnaletica, per rilevare i veicoli, stimare la loro velocità, pianificare il percorso da seguire. A parte le minacce involontarie, come i malfunzionamenti improvvisi, questi sistemi sono vulnerabili agli attacchi intenzionali che hanno lo scopo specifico di interferire con il sistema AI e di interrompere le funzioni critiche per la sicurezza.

L’aggiunta di vernice sulla strada per fuorviare la navigazione, o di adesivi su un segnale di stop per impedirne il riconoscimento sono esempi di tali attacchi. Queste alterazioni possono portare il sistema AI a classificare erroneamente gli oggetti, e di conseguenza il veicolo autonomo a comportarsi in un modo che potrebbe essere pericoloso.

Raccomandazioni per un’IA più sicura nei veicoli autonomi

Al fine di migliorare la sicurezza dell’IA nei veicoli autonomi, il rapporto contiene diverse raccomandazioni, una delle quali è che le valutazioni di sicurezza dei componenti dell’IA sono eseguite regolarmente durante il loro ciclo di vita. Questa convalida sistematica dei modelli e dei dati dell’IA è essenziale per garantire che il veicolo si comporti sempre correttamente di fronte a situazioni impreviste o attacchi maligni.

Un’altra raccomandazione è che i processi di valutazione continua del rischio supportati dalla threat intelligence potrebbero consentire l’identificazione di potenziali rischi AI e minacce emergenti legate all’adozione dell’AI nella guida autonoma. Adeguate politiche di sicurezza AI e una cultura della sicurezza AI dovrebbero governare l’intera catena di fornitura per l’automotive.

L’industria automobilistica dovrebbe abbracciare un approccio security by design per lo sviluppo e l’implementazione delle funzionalità AI, dove la cybersecurity diventa l’elemento centrale della progettazione digitale fin dall’inizio. Infine, è importante che il settore automobilistico aumenti il suo livello di preparazione e rafforzi le sue capacità di risposta agli incidenti per gestire i problemi emergenti di cybersecurity legati all’AI.

AI