Data Privacy Day: le applicazioni dell’intelligenza artificiale dovrebbero consentire agli utenti “un controllo significativo” sui dati

I riflettori della privacy e della tutela dei dati sono ora puntati sull’Intelligenza Artificiale.

Secondo le nuove linee guida pubblicate dalla “Convenzione 108”, il Comitato del Consiglio d’Europa sulla protezione dei dati, in occasione del Data Privacy Day, istituita dall’Ue nel 2006, e poi adottata in tutto il mondo per sensibilizzare gli utenti sulla protezione delle proprie informazioni personali online, lo sviluppo dell’intelligenza artificiale deve obbedire alla “dignità umana e alla salvaguardia dei diritti umani e delle libertà fondamentali”. E non può contraddire i principi di “legalità, correttezza, indicazione di scopi precisi, proporzionalità, privacy by design, responsabilità, trasparenza, sicurezza dei dati e gestione dei rischi”.

“La finalità delle linee guida – spiega la Convezione – è assistere i responsabili delle politiche, gli sviluppatori di intelligenza artificiale, i produttori e i fornitori di servizi nel garantire che le applicazioni non ledano il diritto alla protezione dei dati”.

Il documento sottolinea la necessita di “un approccio mirato a evitare e attenuare i potenziali rischi nel trattamento dei dati personali”. E di una “visione più ampia”, perché in gioco non ci sono solo “i diritti umani e le libertà fondamentali, ma anche valori sociali ed etici e il funzionamento delle democrazie”. Le applicazioni dell’intelligenza artificiale dovrebbero inoltre consentire agli utenti “un controllo significativo” sui propri dati e su come vengono elaborati”. Rivolgendosi agli sviluppatori, il Comitato raccomanda di “valutare i possibili effetti negativi dell’intelligenza artificiale sui diritti umani e sulle libertà fondamentali”.

Ogni applicazione dovrebbe rispettare “i diritti umani by design”. Dovrebbe cioè avere il loro rispetto come elemento alla base della progettazione, anche per “evitare il rischio di discriminazioni”. Le imprese dovrebbero valutare “la natura, la qualità e l’origine dei dati”, raccogliendo solo quelli davvero necessari. E sono “incoraggiate a creare e consultare comitati indipendenti di esperti” che possano indicare gli effetti profondi dell’intelligenza artificiale. Le linee guida chiedono poi maggiore “responsabilità’” e trasparenza sugli algoritmi.

Fonte: Corcom