Il caso Arup: un deepfake di CFO in videoconferenza ruba 25 milioni e costringe aziende e assicuratori a ripensare fiducia, controlli e coperture cyber nell’era dell’AI
di Massimiliano Talarico
Nel panorama in continua evoluzione dei rischi informatici, a gennaio 2024 si è realizzata una complessa intrusione in un database (un attacco ransomware) che ha paralizzato i server di una multinazionale, realizzando un furto di 25,6 milioni di dollari avvenuto alla luce del sole, durante una normalissima videoconferenza aziendale.
Questo caso di studio, che ha coinvolto la filiale di Hong Kong della multinazionale di ingegneria britannica Arup, ci impone di ridefinire il concetto stesso di “fiducia” all’interno delle organizzazioni e solleva interrogativi cruciali per il settore assicurativo, in particolare per la sottoscrizione di polizze Cyber e Crime.
Tutto ha avuto inizio con un vettore d’attacco tanto classico quanto insidioso: lo spear-phishing. Un dipendente del dipartimento finanziario di Arup a Hong Kong riceve un’e-mail, apparentemente inviata dal Chief Financial Officer (CFO) basato nel Regno Unito, in cui si richiede di autorizzare alcune transazioni “segrete” e confidenziali.
È fondamentale sottolineare un dettaglio che fa la differenza: il dipendente non era uno sprovveduto. Ha inizialmente dubitato della veridicità dell’e-mail, sospettando si trattasse di una truffa. Purtroppo, i criminali informatici avevano previsto questa esitazione e hanno immediatamente invitato la vittima a partecipare a una videocall di gruppo per discutere i dettagli.
Una volta collegato, il dipendente si è trovato di fronte il CFO e diversi altri colleghi che conosceva. I volti, le voci, le espressioni facciali e il contesto: tutto sembrava assolutamente normale e coerente. Rassicurato dalla presenza (virtuale) dei vertici aziendali, il dipendente ha abbandonato ogni cautela e, al termine della riunione, ha eseguito 15 bonifici verso cinque diversi conti bancari, per un totale di 200 milioni di dollari di Hong Kong (circa 25,6 milioni di dollari USA).
La frode è stata scoperta solo una settimana dopo, quando il dipendente ha contattato l’headquarter londinese per un aggiornamento, scoprendo che nessuna riunione era mai avvenuta e che ogni singola persona presente in quella videocall (a eccezione sua) era in realtà un “deepfake” generato dall’Intelligenza Artificiale.
Da un punto di vista tecnico, l’attacco ad Arup rappresenta un capolavoro di ingegneria sociale potenziata dall’AI. Ma come hanno fatto i truffatori a eludere i limiti tecnologici che spesso rendono i deepfake riconoscibili in tempo reale?
I criminali non hanno dovuto hackerare i dispositivi dei dirigenti. Hanno semplicemente raccolto per mesi materiale video e audio pubblicamente disponibile: interviste su YouTube, conferenze online, apparizioni televisive e registrazioni di meeting aziendali.
Utilizzando modelli avanzati di machine learning, come le Generative Adversarial Networks (GAN) o modelli di diffusione, l’algoritmo è stato addestrato per mappare i movimenti facciali e campionare il timbro vocale. Le GAN funzionano mettendo in competizione due reti neurali: una “genera” il falso, l’altra “giudica” se sembra reale, migliorando iterativamente il risultato fino alla perfezione.
Poiché i deepfake interattivi in tempo reale richiedono un’enorme potenza di calcolo e presentano ancora ritardi (lag) o artefatti visivi, gli analisti forensi ritengono che i criminali abbiano in realtà “pre-registrato” l’intera videocall. Hanno orchestrato la riunione come un vero e proprio copione cinematografico, lasciando alla vittima un ruolo passivo in cui doveva solo ascoltare le direttive, per poi simulare magari un finto problema di connessione per chiudere la chiamata prima che un’interazione prolungata potesse smascherare l’inganno.
Tutto questo lancia un allarme importante. Come si assicura un’azienda contro una truffa in cui non c’è stata alcuna forzatura dei firewall, nessuna compromissione delle password e nessun malware installato?
Una polizza Cyber standard, concepita per coprire i danni da Data Breach o Ransomware (che richiedono l’accesso abusivo a un sistema informatico), potrebbe non rispondere a un evento del genere. In questo caso, i sistemi di Arup hanno funzionato esattamente come dovevano: è stato un utente legittimo e autorizzato a disporre i bonifici.
Per coprire questo rischio, è fondamentale che le polizze Cyber o le polizze Crime (o Fidelity) includano estensioni specifiche per il Social Engineering Fraud (frode da ingegneria sociale). Tuttavia, i massimali (sub-limiti) concessi per queste estensioni sono storicamente bassi rispetto al massimale generale della polizza, proprio per l’imprevedibilità del “fattore umano”. Un sinistro da 25 milioni di dollari fa saltare ogni metrica attuariale standard.
Gli assicuratori inizieranno a richiedere standard procedurali molto più severi. Non basterà più la Multi-Factor Authentication (MFA) per i login. Verrà richiesto un approccio “Zero Trust” anche per le interazioni umane. Ad esempio, l’obbligo di procedure di Out-of-Band Authentication: se il CFO ti chiede 25 milioni in videochiamata, la policy aziendale deve importi di riagganciare e chiamarlo tu stesso al suo numero di cellulare verificato per chiedere conferma.
Il caso Arup ci insegna che la tecnologia per falsificare la realtà è ormai matura, economica e accessibile. I cybercriminali sono passati dall’hackerare i computer all’hackerare la percezione umana.
Il settore assicurativo e i Risk Manager aziendali devono evolvere di pari passo: la consapevolezza dei dipendenti (Security Awareness) è essenziale, ma non è più sufficiente. L’occhio umano non può più distinguere il vero dal falso generato dall’IA. La difesa del futuro si baserà su procedure operative granitiche, sulla compartimentazione dei poteri di spesa e su strumenti basati a loro volta sull’Intelligenza Artificiale, capaci di analizzare in tempo reale i flussi video per scovare le anomalie invisibili che tradiscono la natura sintetica di un interlocutore.
© Riproduzione riservata