Secondo Check Point Research nel recente “AI Security Report 2025”, l’AI può rappresentare un catalizzatore di minacce sempre più sofisticate. Il documento evidenzia infatti che l’AI viene sfruttata dai cybercriminali per aumentare la portata, la credibilità e l’automazione degli attacchi. Phishing automatizzati, impersonificazioni vocali, deepfake visivi, malware scritti da chatbot maligni, disinformazione diffusa con tecniche AI, fino alla nascita di veri e propri “gemelli digitali”, entità virtuali capaci di imitare comportamenti e linguaggi umani per scopi fraudolenti: sono le novità più inquietanti riportate dallo studio.
In particolare l’analisi mette in guardia dall’ascesa dei gemelli digitali, che non sono solo sosia o imitazioni vocali, ma vere e proprie repliche guidate dall’IA capaci di imitare il pensiero e il comportamento umano.
Il report individua quattro aree critiche su cui si sta costruendo il nuovo arsenale digitale del cybercrime:
- l’ingegneria sociale AI-powered: email di phishing scritte in linguaggio naturale perfetto, imitazioni vocali convincenti, messaggi WhatsApp e social ingannevoli sono ormai indistinguibili da quelli autentici. I modelli generativi permettono anche la creazione istantanea di siti clone, aumentando il tasso di successo delle truffe.
- “AI poisoning”, cioè la manipolazione dei dataset di addestramento dei modelli. Attori malevoli riescono così a influenzare il comportamento dei sistemi AI aziendali, diffondendo risposte errate, contenuti manipolati o vulnerabilità codificate.
- il malware generato da AI: grazie a chatbot come FraudGpt e WormGpt, i criminali possono scrivere codice malevolo avanzato senza conoscenze tecniche, aumentando il numero e la qualità delle minacce circolanti. Questi strumenti sono in vendita nei forum del dark web, con pacchetti “as-a-service” che abbassano la barriera d’ingresso al crimine digitale.
- il modello stesso diventa target o risorsa. Sistemi LLM (large language model) possono essere sfruttati da chi riesce ad accedere alle loro API in modo improprio. Questo apre scenari di “AI hijacking”, in cui l’intelligenza artificiale di un’azienda viene utilizzata contro di essa.