Dalla colpa agli incidenti, la svolta con l’IA

Intelligenza artificiale/parla l’avvocato fabio pinelli
di Marzia Paolucci

Occorrerà rivedere molti dei nostri istituti giuridici alla luce dello sviluppo dell’intelligenza artificiale (IA) per «una tecnologia al servizio dell’uomo e non a suo discapito validata dalla conoscibilità del software e dalla trasparenza dell’utilizzo dei criteri applicati». È uno scenario avvincente e sfidante quello prospettato a ItaliaOggi Sette da Fabio Pinelli, avvocato penalista specializzato in diritto dell’economia e componente del comitato scientifico della Fondazione Leonardo intervenuto nel recente Webinar su «Innovazione e settore legale» organizzato dallo studio di comunicazione The Skill. Suo il tema più importante della salvaguardia dei diritti fondamentali del processo penale oggetto di uno statuto etico-giuridico sull’impatto della IA nel nostro ordinamento al quale collabora in un panel di esperti del calibro di Alessandro Pajno, magistrato, Maria Chiara Carrozza docente dell’Istituto di Biorobotica della Scuola S. Anna di Pisa e Giuseppe Stefano Quintarelli, informatico e uno dei pionieri italiani di internet. Al telefono con ItaliaOggi Sette, Pinelli racconta l’inizio del suo viaggio in quello che definisce il nuovo «umanesimo digitale, un’evoluzione tecnologica che metta al centro l’uomo».

LE FONTI
Il suo ruolo è quello di dare un contributo sull’impatto dell’IA nell’ordinamento giuridico e «capisaldi di questo Statuto etico-giuridico che vede la luce sotto il cappello della Fondazione Leonardo, sono proprio le più recenti fonti sovranazionali che disciplinano il mondo della robotica», introduce Pinelli. Il riferimento va ad almeno tre fonti. «La risoluzione del Parlamento europeo del 16 febbraio 2017 secondo la quale l’apprendimento automatico, pur offrendo evidenti vantaggi innovativi ed economici per la società, pone alcune sfide sul rispetto dei diritti fondamentali: non discriminazione, giusto processo e trasparenza e comprensibilità dei processi decisionali. La scendo fonte è invece il Regolamento europeo sulla privacy attuato il 25 maggio 2018 che all’articolo 22 ricorda che ogni persona ha il diritto di non essere sottoposta a una decisione basata unicamente sul trattamento automatizzato. C’è poi la carta etica del Consiglio d’Europa del 4 dicembre 2018 sull’uso dell’IA nei sistemi di giustizia penale, che indica nei concetti di non discriminazione, qualità e sicurezza, trasparenza, imparzialità e correttezza e soprattutto garanzia del controllo umano, principi inderogabili per l’utilizzo dell’IA negli ordinamenti giuridici.

ORDINAMENTI INTERNAZIONALI
Pinelli non ha dubbi: «Occorre riscrivere le norme di responsabilità penale a cominciare dell’istituto della colpa fondato nel nostro ordinamento sull’azione negligente, imprudente dell’uomo e non certo della macchina oggi dotata di capacità decisionale. No all’automatismo della responsabilità penale che non può ricadere su costruttore e produttore della macchina quando l’errore è frutto di una decisione autonoma della macchina. Da riscriversi quindi anche le norme di circolazione e la disciplina delle intercettazioni con l’ingresso e la diffusa applicazione dell’IA nelle investigazioni di polizia dai trojan horse alle intercettazioni ambientali e a ogni forma di captazione di dati e conversazioni capaci di raccogliere dati anche di persone estranee alle indagini. Per questo le sezioni unite della Corte di cassazione – cita la giurisprudenza – avevano limitato nel 2016 l’utilizzo dei trojan ai soli reati di criminalità organizzata, fattispecie estesa anche ai reati di corruzione dalla legge Spazzacorrotti». E veniamo agli accertamenti giudiziari: «In Italia non abbiamo ancora casi di sostituzione del giudice tradizionale con il giudice robot ma ci sarebbe da chiedersi – si domanda Pinelli – cosa accadrebbe davanti a una piattaforma come quella estone di sperimentazione dell’amministrazione della giustizia civile per cause del valore non superiore a 7 mila euro. Le parti caricano atti e documenti sulla piattaforma e l’algoritmo elabora una decisione, se poi la parte non è soddisfatta dell’esito del giudizio, può sempre impugnarlo davanti a un giudice umano. Un caso che l’avvocato considera favorevolmente, dove la macchina compensa l’esigenza di celerità nell’amministrazione degli affari civili entro un certo valore con la garanzia di vedersi sempre riconosciuto il diritto a un secondo giudizio, quello umano.
© Riproduzione riservata

Fonte:
logoitalia oggi7