Governance: verso un’intelligenza artificiale etica e affidabile nel settore assicurativo europeo

L’avvento di nuove tecnologie come l’intelligenza artificiale (AI), il cloud, l’internet delle cose (IoT), insieme alla crescente disponibilità di dati nella società e nell’economia digitale di oggi, stanno creando opportunità di crescita e sviluppo futuro nel settore assicurativo.

Al fine di capitalizzare le opportunità offerte dalla digitalizzazione e facendo leva sulla loro esperienza in materia di analisi dei dati, negli ultimi anni diverse imprese e intermediari assicurativi europei si sono impegnati in ambiziosi progetti di trasformazione digitale in cui l’intelligenza artificiale gioca un ruolo fondamentale.

Lo dimostra il focus dell’EIOPA sui Big Data Analytics nell’assicurazione auto e malattia, nel 2018, quando già il 31% delle imprese di assicurazione europee partecipanti imprese stavano utilizzando l’intelligenza artificiale e un altro 24% era in una fase di “proof of concept”.

Diversi studi indicano che la pandemia di Covid-19 ha accelerato l’adozione dell’AI in tutti i settori dell’economia, il che rafforzerebbe la tendenza delle assicurazioni verso modelli di business sempre più basati sui dati in tutta la catena del valore dell’assicurazione. Più
in particolare, i sistemi di intelligenza artificiale sono sempre più utilizzati dalle compagnie di assicurazione per elaborare nuovi e vecchi insiemi di dati per sottoscrivere i rischi e stabilire i prezzi dei prodotti assicurativi, lanciare campagne di marketing mirate o per offrire prodotti e servizi migliorati ai consumatori (ad esempio, prodotti assicurativi basati sull’uso), utilizzando applicazioni di telefonia mobile o chat bot comodamente accessibili 24 ore su 24 e 7 giorni su 7 da qualsiasi luogo.

I benefici derivanti dall’intelligenza artificiale in termini di accuratezza delle previsioni, automazione, nuovi prodotti e servizi o riduzione dei costi sono notevoli.
Tuttavia, ci sono anche crescenti preoccupazioni tra le parti interessate circa l’impatto che l’adozione crescente dell’IA potrebbe avere sull’inclusione finanziaria di gruppi di
classi protette o consumatori vulnerabili o sulla nostra società nel suo complesso.

Esiste già un quadro legislativo completo che sostiene l’attività delle imprese di assicurazione, che è anche applicabile all’uso dell’IA all’interno delle loro organizzazioni.

Questo è, in particolare, il caso della direttiva Solvency II, la direttiva sulla distribuzione delle assicurazioni (IDD), il regolamento generale sulla protezione dei dati (GDPR) e la prossima direttiva e-privacy direttiva (ePD).

Per esempio, l’articolo 41 (1) della direttiva Solvency II richiede che “le imprese di assicurazione e di riassicurazione devono disporre di un sistema efficace di governance che preveda una gestione sana e prudente dell’attività“.

La legislazione esistente dovrebbe effettivamente costituire la base di qualsiasi quadro di governance dell’IA, ma i diversi atti legislativi devono essere applicati in modo sistematico e richiedono uno spacchettamento per aiutare le organizzazioni a comprendere il loro significato nel contesto dell’IA. Inoltre, un uso etico dei dati e delle tecnologie digitali implica un approccio più ampio del semplice rispetto alle disposizioni legali e deve prendere in considerazione la fornitura di un bene pubblico alla società come parte della responsabilità sociale delle imprese.

intelligenza artificiale

In questo contesto, negli ultimi anni sono proliferate diverse iniziative a livello internazionale, europeo e nazionale che mirano a promuovere un’IA etica e affidabile nella nostra società.

Facendo leva su queste iniziative intersettoriali, in particolare sulle Linee guida etiche per un’IA affidabile sviluppate dall’High Level Expert Group on AI della Commissione Europea, il Consultative Expert Group on Digital Ethics dell’EIOPA ha sviluppato sei principi di governance dell’AI per promuovere un’intelligenza artificiale etica e affidabile nel settore assicurativo europeo. I principi sviluppati dal gruppo multidisciplinare di stakeholder dell’EIOPA tengono conto delle specificità del settore assicurativo e stabiliscono i pilastri chiave della governance per un’IA etica etica e affidabile dell’IA nel settore assicurativo.

I principi di alto livello sono accompagnati da una guida aggiuntiva per le compagnie di assicurazione su come implementarli nella pratica durante tutto il ciclo di vita del sistema di IA.

Per esempio, per l’attuazione del principio di proporzionalità, il rapporto sviluppa un caso d’uso dell’intelligenza artificiale d’impatto che potrebbe aiutare le compagnie di assicurazione a capire il potenziale risultato dei casi d’uso dell’IA e, successivamente, determinare in modo proporzionato il “mix” dimisure di governance necessarie per implementare sistemi di IA etici e affidabili all’interno loro organizzazioni.

Tenendo conto della grande varietà di casi d’uso dell’IA nelle assicurazioni, molte delle raccomandazioni incluse in questo rapporto si applicano solo a quei casi d’uso che hanno un impatto maggiore sui consumatori e/o sulle compagnie di assicurazione. T

Per quanto riguarda l’uso dell’IA nella tariffazione e nella sottoscrizione delle assicurazioni, il rapporto include una guida su come valutare l’adeguatezza e la necessità dei fattori di rating, osservando che la correlazione non implica causalità.

Le imprese di assicurazione dovrebbero anche evitare certi tipi di pratiche di ottimizzazione dei prezzi e dei sinistri, come quelle che mirano a massimizzare la “disponibilità a pagare” o la “disponibilità ad accettare” del consumatore.

Dal punto di vista della trasparenza e della comprensibilità, i consumatori dovrebbero ricevere spiegazioni controfattuali, cioè dovrebbero essere informati sui principali fattori di valutazione che influenzano il loro premio per promuovere la fiducia e permettere loro di adottare decisioni informate.

Per quanto riguarda l’uso dell’IA per il rilevamento delle frodi, un’adeguata supervisione umana è fondamentale in quanto la frode deve sempre deve essere provata dalla compagnia di assicurazione, e per queste pratiche potrebbe non essere possibile fornire spiegazioni molto dettagliate per evitare di compromettere il legittimo interesse interesse della compagnia di assicurazione a combattere le frodi.

Infine, il rapporto si basa sullo stato dell’arte dell’intelligenza artificiale al momento della sua pubblicazione. Il GDE riconosce che l’IA è una tecnologia in evoluzione con un numero sempre crescente di applicazioni e in cui è in corso un’ampia ricerca. Questo è, in particolare, il caso nel trasparenza e comprensibilità, così come nell’area dell’equità attiva che cerca di sviluppare metriche di equità e non discriminazione per valutare i risultati dei sistemi di IA.
Man mano che queste aree di applicazione e ricerca si evolvono, le raccomandazioni incluse in questo rapporto potrebbero anche aver bisogno di essere riviste a tempo debito.

Download (PDF, Sconosciuto)