I responsabili legali dovrebbero valutare l’esposizione delle loro organizzazioni a questi rischi e adottare misure appropriate per guidare l’uso responsabile delle ChatGPT

Secondo Gartner i responsabili legali e della compliance dovrebbero valutare l’esposizione della propria organizzazione a sei rischi specifici di ChatGPT e quali linee stabilire per garantire un uso responsabile degli strumenti di IA generativa da parte delle aziende.

L’output generato da ChatGPT e da altri strumenti LLM (Large Language Model) è soggetto a diversi rischi“, ha dichiarato Ron Friedmann, analista senior director della Legal & Compliance Practice di Gartner. “I responsabili legali e della compliance dovrebbero valutare se questi problemi rappresentano un rischio rilevante per la loro azienda e quali controlli sono necessari, sia all’interno dell’azienda che nell’azienda allargata a terzi e a terzi. In caso contrario, le aziende potrebbero essere esposte a conseguenze legali, reputazionali e finanziarie“.

I sei rischi di ChatGPT che i responsabili legali e della compliance dovrebbero valutare includono:

Rischio 1 – Risposte false e imprecise

Forse il problema più comune di ChatGPT e di altri strumenti di LLM è la tendenza a fornire informazioni non corrette, anche se superficialmente plausibili.

ChatGPT è anche incline alle “allucinazioni”, tra cui risposte inventate e sbagliate e citazioni legali o scientifiche inesistenti, ha dichiarato Friedmann. “I responsabili legali e della compliance dovrebbero emanare delle linee guida che richiedano ai dipendenti di verificare l’accuratezza, l’adeguatezza e l’effettiva utilità di qualsiasi risultato generato da ChatGPT prima di accettarlo”.

Rischio 2 – Privacy e riservatezza dei dati

I responsabili legali e della conformità devono essere consapevoli del fatto che tutte le informazioni inserite in ChatGPT, se la cronologia delle chat non è disabilitata, possono diventare parte del suo set di dati di formazione.

Le informazioni sensibili, proprietarie o riservate utilizzate nei prompt possono essere incorporate nelle risposte per gli utenti esterni all’azienda“, ha dichiarato Friedmann. “L’ufficio legale e la compliance devono stabilire un quadro di conformità per l’uso di ChatGPT e proibire chiaramente l’inserimento di dati sensibili dell’organizzazione o personali in strumenti LLM pubblici”.

Rischio 3 – Distorsione del modello e dell’output

Nonostante gli sforzi di OpenAI per ridurre al minimo i pregiudizi e le discriminazioni in ChatGPT, si sono già verificati casi noti di questi problemi ed è probabile che persistano nonostante gli sforzi continui e attivi di OpenAI e di altri per ridurre al minimo questi rischi.

L’eliminazione completa dei pregiudizi è probabilmente impossibile, ma le autorità legali e di compliance devono rimanere al corrente delle leggi che regolano i pregiudizi dell’IA e assicurarsi che le loro linee guida siano conformi“, ha dichiarato Friedmann. “Questo può comportare la collaborazione con gli esperti in materia per garantire che l’output sia affidabile e con le funzioni di revisione e tecnologia per stabilire controlli sulla qualità dei dati”.

Rischio 4 – Rischi legati alla proprietà intellettuale e al copyright

ChatGPT, in particolare, si basa su una grande quantità di dati Internet che probabilmente includono materiale protetto da copyright. Pertanto, i suoi output possono potenzialmente violare le protezioni del copyright o della proprietà intellettuale.

ChatGPT non offre riferimenti alle fonti o spiegazioni su come vengono generati i suoi risultati“, ha dichiarato Friedmann. “I responsabili legali e della compliance dovrebbero tenere d’occhio qualsiasi modifica alla legge sul copyright che si applichi all’output di ChatGPT e richiedere agli utenti di controllare qualsiasi output generato per assicurarsi che non violi i diritti di copyright o di proprietà intellettuale“.

Rischio 5 – Rischi di frode informatica

I malintenzionati stanno già abusando di ChatGPT per generare informazioni false su scala (ad esempio, recensioni false). Inoltre, le applicazioni che utilizzano modelli LLM, tra cui ChatGPT, sono anche suscettibili di prompt injection, una tecnica di hacking in cui vengono utilizzati prompt avversari dannosi per ingannare il modello e fargli eseguire compiti non previsti, come scrivere codici malware o sviluppare siti di phishing che assomigliano a siti noti.

I responsabili legali e della compliance dovrebbero coordinarsi con i proprietari dei rischi informatici per valutare se e quando emettere dei promemoria al personale della cybersecurity aziendale su questo tema“, ha dichiarato Friedmann. “Dovrebbero inoltre condurre un audit delle fonti di due diligence per verificare la qualità delle loro informazioni”.

Rischio 6 – Rischi per la tutela dei consumatori

Le aziende che non rivelano ai consumatori l’utilizzo di ChatGPT (ad esempio, sotto forma di chatbot per l’assistenza clienti) rischiano di perdere la fiducia dei clienti e di essere accusate di pratiche sleali ai sensi di varie leggi. Ad esempio, la legge sui chatbot della California prevede che in determinate interazioni con i consumatori, le organizzazioni debbano comunicare in modo chiaro e visibile che il consumatore sta comunicando con un bot.

I responsabili legali e della compliance devono assicurarsi che l’uso di ChatGPT da parte delle loro organizzazioni sia conforme a tutte le normative e leggi pertinenti e che siano state fornite ai clienti le informazioni appropriate“, ha dichiarato Friedmann.