Con l’intelligenza artificiale (IA) che impatta praticamente su tutti gli aspetti della vita quotidiana, negli ultimi anni il numero di lacune assicurative legate all’utilizzo dell’IA si è moltiplicato.

Munich Re lo ha evidenziato in un recente whitepaper che mostra come le esposizioni all’IA all’interno delle polizze assicurative tradizionali abbiano la capacità di diventare un rischio significativo e inaspettato per i portafogli degli assicuratori.

Reinsurance News ha recentemente parlato con Michael Berger, Head of Insure AI di Munich Re, di come il riassicuratore stia affrontando i rischi inerenti alla tecnologia.

Berger ha spiegato che ci sono due lacune fondamentali di cui gli assicurati devono essere consapevoli quando utilizzano l’IA.

“Un esempio è rappresentato dalle perdite economiche pure. Ad esempio, se un’azienda utilizza un’IA per le operazioni interne. Supponiamo che una banca utilizzi l’IA per estrarre informazioni dai documenti, ma se l’IA produce essenzialmente troppi errori, ciò che viene estratto sono molte informazioni errate. Ciò significherebbe che il personale dovrebbe svolgere nuovamente il lavoro, con conseguenti costi aggiuntivi. La seconda area di lacune nella copertura può essere la discriminazione dell’IA. Un esempio potrebbe essere quello delle richieste di carte di credito e dei relativi limiti. L’IA potrebbe essere utilizzata per determinare quale sia il limite di credito appropriato per il richiedente e, di conseguenza, potrebbe verificarsi una discriminazione che non sarebbe coperta da altre polizze assicurative”.

Berger ha poi spiegato come le esposizioni all’IA all’interno delle polizze assicurative tradizionali abbiano la capacità di diventare un rischio significativo e inaspettato per il portafoglio di un assicuratore.

“Con l’IA si crea questo tipo di rischio di accumulo sistematico, soprattutto se un modello viene utilizzato per casi d’uso simili in diverse compagnie. Un’altra area da considerare è quella dei rischi di violazione del copyright con i modelli generativi di IA. Gli utenti potrebbero utilizzare un modello di IA generativa (GenAI) per produrre testi o immagini, ma il modello potrebbe potenzialmente produrre testi o immagini molto simili a testi o immagini protetti da copyright. Se l’utente decide di utilizzare questi contenuti, può incorrere in richieste di risarcimento per violazione del copyright e in cause legali”.

È interessante notare che molte aziende potrebbero scegliere di costruire i propri modelli di IA, non da zero, ma basandosi su grandi modelli GenAI e portandoli avanti.

Con l’impatto della tecnologia AI su molti aspetti della vita, le polizze assicurative esistenti offrono una copertura parziale, che rende difficile per assicuratore e assicurato avere piena fiducia nell’estensione della copertura.

“Credo che dal punto di vista della protezione sia necessario progettare una copertura assicurativa adeguata per queste lacune. Ma ci sono anche preoccupazioni relative all’esposizione silenziosa all’IA. Ci potrebbe essere una copertura potenzialmente parziale, ma la copertura potrebbe anche essere potenzialmente silenziosa. Come settore, potrebbe essere sensato strutturare un prodotto assicurativo integrato che fornisca chiarezza sulla copertura di determinate responsabilità che emergono dall’uso dell’IA. In questo modo si affronterebbe il problema in modo davvero proattivo”, spiega Berger.

A Berger è stato poi chiesto se ci sono limitazioni alle garanzie offerte da Munich Re nell’assicurare e affrontare i rischi insiti nell’IA: “Ci sono limitazioni tecniche perché esistono diverse forme di rischi legati all’IA. Per questo motivo, per alcuni rischi di IA possiamo offrire una copertura solo se sono soddisfatte determinate condizioni tecniche. Ad esempio, Munich Re può coprire il rischio di violazione del diritto d’autore se vengono utilizzate determinate tecniche statistiche che modificano il modello generativo dell’IA in modo tale da poter stimare la probabilità che produca un risultato simile con un elevato grado di confidenza”. Non è possibile evitare che un modello di IA generativa produca risultati che potrebbero violare il copyright. Tuttavia, ci sono alcuni strumenti che almeno attenuano la probabilità che qualcosa del genere possa accadere. Lo stesso vale per gli errori. Anche se un’azienda ha il modello di IA più ben costruito, non sarà mai esente da errori. Qualsiasi modello di IA produrrà errori con una certa probabilità, e tutto dipende dalla prospettiva del processo di test. Le procedure di test sono sufficientemente robuste dal punto di vista statistico da permetterci di stimare questa probabilità? Se non lo sono, allora non saranno assicurabili. Per poter stimare con sicurezza il rischio e assicurarlo, abbiamo bisogno di alcuni prerequisiti tecnici. Se queste non sono date, non saremo in grado di assicurare questo tipo di rischi”.