Il 4 marzo scorso la controllata statunitense di Nippon Life ha citato in giudizio OpenAI a Chicago, accusandola di aver consentito a ChatGPT di comportarsi come un avvocato senza abilitazione, in violazione delle norme dell’Illinois sulla pratica legale. Il caso nasce da una controversia di invalidità: dopo aver firmato una transazione nel gennaio 2024, un’assicurata insoddisfatta ha iniziato a sottoporre a ChatGPT le mail e i pareri del proprio legale, chiedendo se l’accordo fosse valido o se fosse “manipolata”. Il sistema, secondo la ricostruzione di Nippon, avrebbe messo in dubbio le indicazioni dell’avvocato, spingendola a licenziarlo e a lanciare una raffica di nuove iniziative giudiziarie per riaprire il caso e attaccare la compagnia.

 

Da lì ChatGPT sarebbe diventato una sorta di “motore di contenzioso”: avrebbe suggerito strategie processuali, elaborato argomentazioni giuridiche (anche sulla base della Rule 60(b) federale) e redatto decine di atti, citando perfino precedenti giurisprudenziali inesistenti, tipico esempio di “allucinazione” dell’IA poi riversata negli atti depositati in tribunale.

Per l’assicuratore, questo uso sistematico dell’IA ha trasformato una causa chiusa in un contenzioso prolungato e privo di basi, costando circa 300.000 dollari in spese legali e di personale. Nella causa contro OpenAI, Nippon Life chiede il rimborso di tali costi come risarcimento danni e altri 10 milioni di dollari a titolo punitivo, oltre a un’ingiunzione che vieti a ChatGPT di fornire assistenza legale nello Stato.

OpenAI ha definito la causa “totalmente infondata”, richiamando le proprie policy che sconsigliano di usare il chatbot come sostituto di un avvocato e rivendicando l’assenza di abilitazione formale di ChatGPT alla pratica forense.

Giuristi come Eran Kahana, della Stanford Law School, leggono però la vicenda non tanto come l’ennesimo caso di allucinazione, quanto come un potenziale caso di responsabilità da prodotto: se un sistema è progettato e messo sul mercato sapendo che utenti fragili o privi di difesa tecnica lo useranno per “farsi assistere” in ambito legale, la linea di confine tra semplice informazione giuridica e abuso di esercizio del diritto potrebbe considerarsi superata.

Commentatori come Lance Eliot, su “Forbes”, sottolineano infine che questo potrebbe diventare un precedente decisivo per tutti i produttori di IA: se un tribunale dovesse qualificare un chatbot conversazionale come “praticante abusivo”, i requisiti di progettazione, controllo e responsabilità per ogni applicazione che sfiora il terreno del consiglio professionale – legale, medico, finanziario – cambierebbero in modo profondo.

© Riproduzione riservata