INNOVAZIONE

Autore: Massimiliano Talarico
ASSINEWS 379 – Novembre 2025

Il 17 settembre 2025 il Senato della Repubblica ha approvato in via definitiva quella che è diventata la prima legge organica italiana sull’Intelligenza Artificiale.

Questa legge e pensata come un quadro normativo nazionale che regola lo sviluppo, l’uso, la governance e la responsabilità dei sistemi di IA, rispettando i principi costituzionali e i diritti fondamentali.

Non si tratta soltanto di recepire (o adeguarsi) al regolamento europeo noto come AI Act, ma di definire un assetto nazionale che interiorizzi principi come trasparenza, sicurezza, tutela della privacy, responsabilità umana in settori critici come sanita, lavoro, giustizia, pubblica amministrazione, formazione e sport.

La legge si articola in 28 articoli divisi in sei “Capi” (sezioni) che definiscono principi generali, ambiti di applicazione, deleghe, governance e responsabilità.

  1. Il principio dell’uso antropocentrico: l’IA deve essere al servizio delle persone, non sostituire la decisione umana. In tutti i settori previsti, la decisione finale resta in capo a un soggetto umano.
  2. Trasparenza, tracciabilità, responsabilità: i sistemi e gli algoritmi devono essere progettati e utilizzati in modo che siano comprensibili, controllabili, e che si possa risalire alle decisioni (chi ha fatto cosa, su quali dati, con quali criteri).
  3. Tutela della privacy: l’uso di dati personali, algoritmi, metodi matematici, tutto deve rispettare la normativa sulla protezione dei dati personali.
  4. Ambiti specifici: per esempio in sanita, il medico mantiene la responsabilità sulla diagnosi, cura e scelta terapeutica; l’IA e uno strumento di supporto.
  5. Lavoro: obbligo di informare i lavoratori quando vengono impiegati sistemi di IA; regole per evitare discriminazioni; responsabilità chiara in caso di danni.
  6. Pubblica amministrazione e giustizia: la legge interviene anche su questi settori per garantire che l’IA non alteri diritti fondamentali, che non subentri nei compiti decisionali propri degli esseri umani (per es., decisioni giudiziarie).
  7. Responsabilità penale e sanzionatoria: la legge prevede che l’uso illecito dell’IA possa essere perseguito. Esempi concreti sono i deepfake dannosi, le frodi identitarie amplificate dall’uso dell’IA, altri tipi di abuso che comportano danno effettivo. Sono introdotte pene e responsabilità più severe.
  8. Governance: vengono designate due Autorità nazionali competenti principali — l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID). L’ACN ha poteri ispettivi e vigilanza sulla sicurezza, AgID ha compiti di gestione delle notifiche, promozione di casi d’uso sicuri, definizione di linee guida, standard tecnici.
  9. Strategia nazionale biennale: il Dipartimento per la trasformazione digitale della Presidenza del Consiglio predisporrà una Strategia nazionale per l’IA che verrà aggiornata ogni due anni, con l’apporto di ACN, AgID e con un monitoraggio annuale del Parlamento.

La legge introduce sanzioni anche penali in certi casi: per esempio il reato relativo ai deepfake dannosi, frodi, uso illecito dell’identità digitale.

Le pene possono arrivare fino a cinque anni di carcere nel caso in cui l’uso illecito causi danno. Inoltre, e previsto un fondo statale di 1 miliardo di euro per sostenere startup e PMI che operano nell’IA, in cybersecurity, nelle telecomunicazioni e nelle tecnologie quantistiche.

Questo per stimolare l’innovazione e la competitività, nonché per rendere concreta la volontà di regolamentazione. Nonostante il testo sia stato approvato, ci sono vari punti che suscitano critiche o dubbi sia da parte degli esperti di tecnologia, delle associazioni per i diritti digitali, sia dal mondo accademico che sanitario.

Uno dei nodi principali e la dipendenza dai decreti attuativi. La legge è infatti una legge delega: stabilisce principi, valori, indirizzi, ma lascia al Governo il compito di emanare decreti legislativi per dettagliare molte delle norme operative, specie in materie complesse come dati, algoritmi, metodi di addestramento dell’IA. Questo significa che gran parte dell’efficacia e del concreto impatto dipenderà da come saranno scritti questi decreti.

Un altro punto e la gestione della responsabilità. Se da un lato la legge ribadisce che la decisione finale spetta sempre a un essere umano, dall’altro non è sempre facile stabilire che cosa significa “supporto”, “ausilio” oppure “influenza” significativa dell’IA.

Nelle applicazioni mediche, ad esempio, come si definisce il grado di autonomia dell’IA che può influenzare diagnosi o terapia? Quali garanzie devono esserci quando l’IA e molto potente, complessa, opaca?

Queste domande tradurranno in pratica difficolta di regolazione, soprattutto nella fase iniziale. Inoltre il controllo effettivo delle istituzioni preposte dovrà essere ben organizzato, con risorse, competenze e capacita tecnica.

C’è anche la questione delle risorse: il miliardo previsto può essere utile e significativo per le piccole realtà nazionali, ma rispetto ai piani di investimento di altri paesi, in Europa, Nord America, Asia potrebbe risultare modesto.

Alcuni critici sottolineano che servirebbero stanziamenti maggiori per sostenere l’innovazione, la formazione, la ricerca, la diffusione delle competenze tecnologiche, non solo finanziarie, ma anche normative e infrastrutturali.

Inoltre c’è la sfida della competizione con la normativa europea: anche se la legge e allineata con l’AI Act, il modo in cui l’Italia attuerà le disposizioni può determinare “vuoti” o sovrapposizioni con le norme UE, interpretazioni divergenti, e criticità su questioni come il diritto d’autore, la tutela della privacy, i rapporti fra autorità nazionali e organismi europei.

Infine, resta aperto il tema della capacità di formazione e cultura digitale: perché una legge sull’IA sia efficace non basta regolamentare, bisogna che cittadini, imprese, professionisti (medici, magistrati, insegnanti, ecc.) comprendano i rischi e le opportunità, sappiano usare gli strumenti, gestire la trasparenza, controlli, responsabilità.

Serve formazione, ricerca accademica, investimenti anche nell’educazione di base e nelle università.

In ogni caso questa legge italiana rappresenta un passo significativo non solo a livello nazionale, ma anche a livello europeo.

L’Unione Europea ha già stabilito il suo AI Act, entrato in vigore nel 2024, che definisce regole armonizzate a livello UE per i sistemi di IA, classificazione dei rischi, obblighi per produttori e utilizzatori.

L’Italia con questa legge non solo recepisce i principi ma aggiunge specifiche nazionali che tengono conto del contesto italiano: sistema sanitario pubblico, gestione della giustizia, struttura delle imprese, protezione del lavoro, esigenze particolari in termini di privacy, protezione dei dati, tradizione normativa.

È significativo che l’Italia diventi il primo paese dell’UE a emanare una legge nazionale complessiva sull’IA, pur sapendo che nel futuro molti stati membri dovranno dotarsi di regole analoghe.

Nel panorama internazionale, il tema delle leggi sull’IA e all’ordine del giorno: molti paesi stanno discutendo regolamentazioni su deepfake, responsabilità, trasparenza algoritmica, sicurezza, bias.

L’approccio “prima regole generali, poi decreti attuativi” e simile a quello di altri ordinamenti, ma la rapidità con cui l’Italia ha portato la legge alla sua forma definitiva e notevole.

Vanno stimati vari impatti, concreti e non, che la legge produrrà nei prossimi anni. In sanita, come già detto, si rafforza il ruolo del professionista sanitario, che non potrà essere bypassato da sistemi IA nelle decisioni.

Questo e rassicurante per pazienti e operatori, ma può rallentare certe innovazioni se i medici, ospedali o strutture non hanno strumenti, competenze e risorse per integrare strumenti IA validati.

Potrebbe esserci bisogno di certificazioni, verifiche, formazione continua, infrastrutture tecnologiche sicure. Nel mondo del lavoro l’obbligo di informare i lavoratori, la regolazione dei rischi di discriminazione e la responsabilizzazione delle imprese cambieranno il modo in cui gli strumenti IA potranno essere utilizzati, soprattutto nei contesti di gestione delle risorse umane, valutazioni, selezione, controllo.

Alcune aziende dovranno adeguarsi rapidamente e potrebbero emergere anche contenziosi o richieste di intervento da parte dei sindacati o delle autorità giudiziarie.

In materia di pubblica amministrazione e giustizia, la legge potrà introdurre maggiore controllo sull’uso degli algoritmi, maggiore attenzione alla trasparenza, obblighi di rendicontazione.

Ad esempio, in tribunale, un giudice non potrà “affidarsi” a un algoritmo per decidere in autonomia; l’IA potrà essere usato come supporto, ma le decisioni dovranno essere spiegate, motivate e sotto responsabilità umana. Questo potrebbe richiedere modifiche organizzative, assunzione di competenze, sviluppo di guide pratiche, standard tecnici.

Sul piano della ricerca e innovazione, il miliardo di euro previsto significa un incentivo concreto per startup e PMI, ma la sua efficacia dipenderà dal modo in cui verrà distribuito, dai criteri di accesso, dalla rapidità con cui i fondi saranno resi operativi.

È importante che non restino “intoccabili” impegni su carta ma diventino risorse che arrivano realmente agli attori del sistema.

A livello dei cittadini ci sarà una maggiore tutela: controllo su deepfake, protezione dei dati, diritti più chiari in caso di danni; ma anche nuove verifiche: per esempio l’accesso ai sistemi IA per i minori sotto i 14 anni richiede il consenso dei genitori. Ciò pone interrogativi su come sarà applicato questo requisito in pratica (p.e. nei servizi online, nelle app, nelle piattaforme digitali).

La legge è solo l’inizio: molto dipenderà dalla qualità e dalla tempestività dei decreti attuativi. Se questi saranno ben fatti, chiari, con risorse, competenze, controllo efficace, allora l’Italia può porsi come paese all’avanguardia in Europa nel governo dell’IA. Se invece rimarranno vaghi o ritardati, si rischia che la legge resti più che altro un quadro teorico, con poca efficacia pratica.

Importante sarà anche la cooperazione fra autorità nazionali e organismi europei, e il modo in cui l’Italia interpreterà le parti del regolamento UE non ancora completamente definite o demandate agli Stati. Occorre evitare conflitti di competenza, ritardi nei riconoscimenti reciproci, incertezze che scoraggiano investimenti.

La formazione e cruciale: non solo nelle università e nei centri di ricerca, ma anche per professionisti (medici, magistrati, insegnanti, avvocati, ingegneri, funzionari pubblici), per le imprese, per i cittadini. Bisogna che le persone sappiano cosa significa “sistema IA”, quali sono i rischi, chi e responsabile, come si può contestare un errore, un danno, una discriminazione.

Anche le imprese tecnologiche dovranno adattarsi: trasparenza dei modelli, documentazione, possibili audit, misure di controllo delle performance, mitigazione degli errori, bias, sicurezza. Chi lavora sullo sviluppo di modelli IA dovrà essere pronto a misurare, dimostrare, certificare.

Infine, rimane la sfida etica che non può essere affrontata solo con regole legali: il rispetto della dignità degli individui, la lotta ai bias, la tutela della diversità culturale e sociale, la protezione da usi tossici o dannosi dell’IA, la promozione di innovazione che sia anche inclusiva.

La legge italiana sull’Intelligenza Artificiale rappresenta un momento importante. E la prima volta che l’Italia si dota di un testo complessivo che non solo recepisce l’AI Act europeo, ma lo integra con attenzione ai propri assetti istituzionali, sociali, sanitari. E un ponte fra innovazione tecnologica e garanzie dei diritti, fra opportunità e rischi.

Se tutto questo funzionerà, l’Italia potrà non solo conformarsi alle aspettative europee, ma diventare un modello di approccio equilibrato, con regole chiare e rispettose dell’umano, che aiutano a far convivere progresso tecnologico e tutela dei valori fondamentali.

Fonti:

https://innovazione.gov.it/notizie/articoli/approvatain- via-definitiva-la-legge-italiana-sull-intelligenza-artificiale/ https://www.tecnicadellascuola.it/approvata-in-viadefinitiva- la-legge-sull’intelligenza-artificiale-il-testo-ele- ricadute-per-la-scuola

https://www.doctor33.it/articolo/65465/intelligenzaartificiale- approvata-la-legge-le-ricadute-per-la-sanita

https://www.prismacompany.it/la-prima-legge-italiana- sullintelligenza-artificiale-cosa-stabilisce-quali-obblighi- introduce-e-quali-sono-gli-impatti-giuridici/

© Riproduzione riservata