Il rischio dell’IA silenziosa (che si riferisce ai rischi associati all’intelligenza artificiale che non sono né esplicitamente inclusi né esclusi dalle polizze assicurative, lasciando spazio a potenziali lacune di copertura) sta spingendo gli assicuratori ad aggiornare le formulazioni delle polizze e rivedere le disposizioni di riassicurazione per garantire che tali rischi siano adeguatamente coperti, secondo lo studio legale internazionale DAC Beachcroft.

Secondo quanto riporta Reinsurance News lo studio legale ha osservato che le formulazioni delle polizze stanno evolvendo per riflettere il ruolo crescente dell’IA nelle operazioni quotidiane delle imprese. Assicurati e broker continuano a cercare chiarimenti sull’adeguatezza dei loro programmi assicurativi e desiderano formulazioni di polizza che affrontino esplicitamente i rischi legati all’IA.

Gli assicuratori dovranno controllare attentamente i loro accordi di riassicurazione per accertarsi che i rischi legati all’IA siano adeguatamente coperti. Allo stesso modo, i riassicuratori potrebbero cercare di condizionare o escludere rischi legati all’IA.

DAC Beachcroft ha evidenziato che l’IA Agentica comporti rischi maggiori per la protezione dei dati: “A differenza di alcuni sistemi di IA precedenti, molti casi d’uso tipici di sistemi di IA agentica si basano fortemente sull’elaborazione dei dati personali, incluse categorie speciali di dati personali o altre categorie sensibili come le informazioni finanziarie. Sebbene molte organizzazioni siano finora riuscite ad applicare controlli di governance all’uso dell’IA generativa sul posto di lavoro, la minore supervisione umana evidente nell’IA agentica aumenta significativamente la sfida nell’implementare gli stessi controlli. Di conseguenza, i rischi per la protezione dei dati probabilmente si intensificheranno.”

Inoltre, DAC Beachcroft mette in guarda su rischi di sinistri fraudolenti con prove false generate dall’IA: “Abbiamo assistito a un aumento delle richieste di risarcimento che storicamente sarebbero considerate prove accettabili di danno, ma che in realtà sono state create per generare un sinistro o gonfiarne uno altrimenti legittimo. Questo non riguarda solo i rami personali, dove, ad esempio, vengono create fotografie dei danni generate dall’intelligenza artificiale, ma anche i rami commerciali, dove l’intelligenza artificiale viene utilizzata per generare fatture e rendiconti falsi”. La società prevede che questa tendenza alle richieste di risarcimento fraudolente aumenterà nel 2026.

DAC Beachcroft ha inoltre osservato che la regolamentazione fatica a tenere il passo con la rapida evoluzione dell’intelligenza artificiale. Gli attuali framework non sono stati progettati per sistemi di autoapprendimento o modelli generativi, lasciando lacune in termini di responsabilità, trasparenza e pregiudizi.