di Guido Scorza*
La Commissione europea ha presentato la sua ricetta per garantire che l’intelligenza artificiale produca impatti sostenibili sulla società. Proprio come accaduto qualche anno fa con la privacy è un’iniziativa buona, coraggiosa e condivisibile oltre ogni ragionevole dubbio. Buona anche la scelta di un Regolamento anziché di una Direttiva perché utile a garantire la massima possibile uniformità della disciplina dei diversi Paesi dell’Unione. Bene anche la centralità riconosciuta alla qualità dei data sets utilizzabili per l’addestramento degli algoritmi al fine di evitare che il ricorso a data sets contenenti dati inesatti o, semplicemente, viziati possa compromettere la neutralità dei processi decisionali e determinare discriminazioni. E, anzi, sotto questo profilo, tali preoccupazioni attualmente limitate ai data sets destinati all’addestramento di soluzioni di intelligenza artificiale qualificati come a alto rischio, andrebbero estese a ogni sistema di intelligenza artificiale. Interessante anche l’idea – utile a scongiurare il rischio che le nuove regole siano bollate come freno al progresso – di inserire nel Regolamento il riferimento a un sistema di sand box regolamentari capace di promuovere la sperimentazione di soluzioni border line rispetto a vecchie e nuove regole sotto la stretta osservazione delle competenti autorità di regolamentazione e vigilanza.

Qualche perplessità, invece, forse, solleva l’idea di redigere, oggi per domani, un elenco – per quanto suscettibile di modifiche e aggiornamento – di applicazioni di intelligenza artificiali più ad alto rischio di altre e per questo sottoposte a una disciplina più rigorosa e un elenco di applicazioni vietate salvo laddove autorizzate espressamente dalla legge. Si tratta, probabilmente, di un tentativo troppo ambizioso davanti a un contesto tecnologico e di mercato dai confini in così rapido e costante movimento anche in considerazione del fatto che il draft di Regolamento è atteso da un percorso ancora lungo e impervio. E, egualmente, qualche dubbio suscita l’approccio al problema della trasparenza degli algoritmi nei confronti degli utenti delle soluzioni di intelligenza artificiale perché è quello tradizionale della disciplina consumeristica e, più di recente, di quella in materia di protezione dei dati personali: imporre alle parti forti del rapporto obblighi di informazione nei confronti delle parti deboli. Questo approccio, tuttavia, ha fatto il suo tempo. Nella società dell’accetta e continua, nessuno legge più le chilometriche condizioni generali di contratto. Non c’è ragione di ritenere che lo stesso approccio abbia maggior fortuna nell’universo dell’Ai. C’è poi il grande tema della governance della materia. Serve davvero un nuovo board europeo dedicato all’intelligenza artificiale e una nuova rete di autorità competenti anche a livello nazionale? È presto per trarre conclusioni, ma il vecchio continente è sul pezzo sulla sfida delle sfide nel governo del futuro. (riproduzione riservata)

*membro del Collegio del Garante per la protezione dei dati personali

Fonte: logo_mf