LA POSIZIONE DEL CONSIGLIO EUROPEO E LE RACCOMANDAZIONI OCSE SULL’INTELLIGENZA ARTIFICIALE
di Matteo Rizzi
Vietata l’intelligenza artificiale che crea la cittadinanza a punti. Sarà proibito implementare quei sistemi che valutano o classificano le persone in base ad un comportamento sociale in molteplici contesti o caratteristiche personali. Ad esempio, non potranno essere implementati sistemi di IA che valutano se un cittadino implementa comportamenti virtuosi da cui ne consegue un premio, al contrario se commette atti negativi potrà essere discriminato. Il Consiglio europeo ha adottato il 6 dicembre scorso la sua posizione comune relativa alla normativa sull’intelligenza artificiale. L’obiettivo è assicurare che i sistemi di intelligenza artificiale (IA) immessi sul mercato dell’Ue e utilizzati nell’Unione siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali dell’Unione. La posizione comune concordata dai 27 stati membri ha lo scopo di avviare negoziati con il Parlamento europeo (“triloghi”) e raggiungere un testo finale.

La Commissione europea nell’aprile 2021 ha proposto un regolamento che segue un approccio basato sul rischio dell’AI e stabilisce un quadro giuridico uniforme. Per quanto riguarda le pratiche di IA vietate, il testo estende agli attori privati il divieto di utilizzare l’IA per il punteggio sociale. Inoltre, gli orientamenti chiedono che il futuro regolamento vieti l’uso di sistemi di IA che sfruttano le vulnerabilità di un gruppo specifico di persone e anche “delle persone vulnerabili a causa della loro situazione sociale o economica”.

Per quanto riguarda il divieto di utilizzare sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico da parte delle autorità, il testo chiarisce le situazioni nelle quali tale uso è strettamente necessario a fini di contrasto e nelle quali le autorità dovrebbero pertanto essere eccezionalmente autorizzate a utilizzare tali sistemi. Questi possono essere solo utilizzati “per la ricerca mirata di potenziali vittime specifiche di reato; la prevenzione di una minaccia specifica e sostanziale per un’infrastruttura critica, la vita, la salute o l’incolumità fisica delle persone fisiche o la prevenzione di attacchi terroristici; la localizzazione o l’identificazione di una persona fisica ai fini dello svolgimento di un’indagine penale”.

Dall’ambito di applicazione della normativa sull’IA è stato fatto esplicito riferimento all’esclusione delle finalità militari, di difesa e di sicurezza nazionale. Analogamente, è stato chiarito che la normativa sull’IA non dovrebbe applicarsi ai sistemi di IA e ai loro output utilizzati esclusivamente a fini di ricerca e sviluppo.

Le raccomandazioni Ocse. Per sfruttare il potenziale dell’AI e mitigarne i rischi è necessario implementare politiche coordinate a livello internazionale al fine di individuare linguaggi e pratiche comuni, ha indicato l’Ocse nel documento “Sfruttare la potenza dell’IA e delle tecnologie emergenti” preparato per la riunione ministeriale del Comitato per la politica dell’economia digitale, che si terrà il 14-15 dicembre 2022 a Gran Canaria, in Spagna.

Il ruolo dell’AI è sempre maggiore all’interno dei governi, non solo delle imprese: per la lotta all’evasione fiscale alla gestione del mercato del lavoro, ma anche ricerca scientifica e cambiamento climatico. Tuttavia, con l’evoluzione dell’IA e delle tecnologie emergenti associate è necessario regolare gli elementi di base su cui sviluppano tali tecnologie: dati, modelli di apprendimento automatico, connettività e potenza di calcolo.

Ad esempio, i progressi nei modelli e nelle tecniche di apprendimento automatico hanno permesso ai sistemi di IA di imparare in modo automatizzato attraverso modelli e inferenze piuttosto che attraverso istruzioni esplicite da parte di un essere umano. Poiché questi approcci all’apprendimento automatico spesso si basano sull’elaborazione di grandi quantità di dati, è essenziale migliorare l’accesso e la condivisione dei dati per sfruttare al meglio questa tecnologia.

All’interno dei paesi, tuttavia, i dati sono spesso rinchiusi in specifiche organizzazioni. I responsabili delle politiche devono quindi affrontare sfide per aprire l’accesso ai dati gestendo al contempo la privacy e altri rischi (si veda la tabella in pagina). Secondo l’Ocse, è crescente la preoccupazione per la concentrazione di tecnologia e risorse finanziarie nelle mani di poche aziende e nazioni, che ha come principale conseguenza il controllo di grandi insiemi di dati e la potenza di calcolo per elaborarli. La società di “chi vince prende di più” porta uno svantaggio generale, sottolinea l’organizzazione, in quanto la mancanza di condivisione dei dati rallenta la produttività e aumenta il divario nell’adozione dell’IA tra le grandi aziende e le PMI, ma così come tra le grandi aziende e il settore pubblico. Al contrario, esistono comunque già grandi società che contribuiscono a rendere pubblici una serie di dati e quindi al miglioramento della qualità dei dati utilizzati per l’IA ad uso pubblico.

L’altro punto fondamentale per lo sviluppo dell’IA riguarda la connettività ad alta velocità che sia reattiva e affidabile per consentire il trasferimento rapido di grandi volumi di dati che permettono applicazioni ricche e interattive, tra cui quelle di realtà aumentata e virtuale, fondamentali, ad esempio, per gli ambienti immersivi. Questa connettività è resa possibile da reti mobili di nuova generazione e da reti fisse in fibra ottica. L’Ocse quindi sottolinea l’urgenza di implementare ulteriori investimenti nelle reti per far fronte alla crescente domanda e fornire una copertura universale.

Infine, la potenza di calcolo è fondamentale per lo sviluppo dell’IA e delle tecnologie emergenti, in particolare per i sistemi di apprendimento automatico su scala sempre più ampia. A tal fine, i responsabili politici si dovranno concentrare sempre più sugli investimenti in risorse computazionali specializzate nell’IA, tra cui hardware, software e infrastrutture. Un esempio può essere il super-computer Leonardo, il secondo più potente d’Europa, da poco inaugurato al Tecnopolo di Bologna grazie ai fondi Ue e al progetto EuroHPC Joint Undertaking.

Standard comuni per prevenire i rischi
Iprincipi dell’Ocse sull’intelligenza artificiale (IA) sviluppano standard comuni per prevenire i rischi. Nel 2019 l’organizzazione parigina ha elaborato delle raccomandazioni che forniscono un denominatore comune per la governance dell’IA. Con l’adozione di tali principi, i paesi hanno concordato una serie di priorità per promuovere e sfruttare il potere dell’IA affidabile, ovvero che i sistemi di IA: (1) portino benefici alle persone e al pianeta; (2) rispettino i valori democratici e i diritti umani, tra cui la privacy e l’equità; (3) siano trasparenti e spiegabili; (4) siano robusti, sicuri e protetti; e (5) ritengano gli attori dell’IA responsabili del loro corretto funzionamento.

I paesi sottoscrittori hanno quindi concordato di utilizzare approcci basati sul rischio per governare l’IA (lo stesso approccio ad esempio utilizzato nell’antiriciclaggio), con politiche e standard che trattino le diverse applicazioni di IA in modo diverso a seconda dei rischi che comportano.

Il quadro di classificazione dell’Ocse consente agli utenti di concentrarsi sui rischi specifici di un’applicazione di IA in base alle sue caratteristiche tecniche (ad esempio, rischi per la sicurezza e la privacy nel caso di veicoli autonomi). Il quadro di riferimento, indica l’Ocse, può anche aiutare a sviluppare politiche e regolamenti, fornendo una base di partenza per la comprensione dell’IA in base alle caratteristiche del sistema.

Poiché l’IA non conosce confini e molti attori operano a livello internazionale, l’Ocse sta utilizzando questa classificazione per facilitare l’interoperabilità tra i paesi nella valutazione del rischio insieme a esperti e stakeholder nazionali e internazionali.

Le strategie e le politiche nazionali incentrate specificamente sull’IA sono un fenomeno relativamente nuovo che il Canada per primo ha avviato nel 2017. Oggi, strategie e politiche sull’IA sono presenti in oltre 60 paesi (Italia inclusa) secondo l’osservatorio Ocse sull’Ia.
Fonte:
logoitalia oggi7