INNOVAZIONE
Autore: Massimiliano Talarico
ASSINEWS 376 – Luglio-Agosto 2025
Negli ultimi anni, i modelli di intelligenza artificiale generativa, in particolare i large language models (LLM) come ChatGPT, Claude, Gemini, Perplexity e altri, hanno compiuto
un salto qualitativo impressionante. Non solo riescono a comprendere il linguaggio naturale in modo sempre più preciso, ma mostrano anche tratti comunicativi che ricordano il carattere umano. Questa evoluzione sta portando molte persone a percepire le AI come entità con personalità proprie, dotate di modi di porsi, inclinazioni e atteggiamenti diversi. È un fenomeno affascinante, ma anche complesso, che ci pone interrogativi profondi su cosa significhi davvero essere umani e fino a che punto un’intelligenza artificiale possa (o debba) assomigliarci.
Da strumenti a compagni di conversazione
All’inizio, i chatbot erano strumenti rigidi. Bastava digitare una frase leggermente ambigua perché si inceppassero. Le risposte erano meccaniche, impersonali, e a volte del tutto scollegate dal contesto. L’interazione con questi sistemi sembrava più un esercizio informatico che una vera conversazione. Oggi, invece, parlare con un LLM è spesso un’esperienza sorprendentemente fluida e naturale. Non solo comprendono il significato delle parole, ma riconoscono sfumature emotive, ironia, sarcasmo e contesto sociale. Alcuni riescono persino ad adottare un tono motivazionale, altri sono cauti e realistici, altri ancora sembrano avere un’ironia sottile. È qui che nasce l’impressione che ogni AI abbia un carattere. Le personalità degli LLM Sebbene non abbiano una coscienza o una vera identità psicologica, i modelli LLM rispecchiano nei loro comportamenti linguistici qualcosa che somiglia molto alle personalità umane. Analizzando alcuni tra i principali modelli oggi disponibili, emergono differenze evidenti:
Claude (Anthropic): ha un tono estremamente positivo, incoraggiante ed empatico. Le sue risposte sono spesso infuse di ottimismo, con frasi del tipo “ci siamo quasi!”, “ottimo lavoro!”, “un grande successo!”. Questo lo rende particolarmente adatto in contesti motivazionali, educativi e creativi. Non è raro che gli utenti percepiscano Claude come “gentile” o “ispirante”.
Gemini (Google): è pragmatico, riflessivo, a tratti anche scettico. Tende a mettere in evidenza i limiti di una richiesta, a sottolineare i potenziali problemi e a evitare conclusioni affrettate. Il suo stile è quello di un consulente razionale, che si preoccupa di fornire informazioni affidabili piuttosto che entusiasmare l’utente. Alcuni lo percepiscono come “freddo”, ma altri lo apprezzano per l’approccio equilibrato e professionale.
ChatGPT (OpenAI): si pone nel mezzo tra empatia e neutralità. Ha un tono amichevole, ma sobrio, cerca di essere utile senza esagerare con l’entusiasmo, ed è in grado di adattarsi molto al registro linguistico dell’utente. La sua flessibilità lo rende estremamente versatile, ma lo rende anche meno “caratterizzato” rispetto ad altri modelli. ChatGPT può essere più caldo o più analitico a seconda delle circostanze. Queste differenze non sono casuali, ma il risultato di molteplici fattori, come ad esempio i dataset di addestramento in quanto ogni modello viene addestrato su dati diversi, con obiettivi e filtri distinti. La selezione dei dati influenza il tono linguistico dominante. Anche l’architettura ed il processo di fine-tuning, i processi di raffinamento (RLHF, instruction tuning, alignment con valori etici) determinano come il modello deve “comportarsi” nelle conversazioni. Esistono poi le linee guida di sicurezza e del branding in quanto ogni azienda produttrice di AI cerca di orientare la propria tecnologia secondo una “personalità” coerente con il proprio brand.
Percezione antropomorfica: un bisogno umano
Perché ci sembra che un software abbia una personalità? La risposta sta in un fenomeno psicologico chiamato antropomorfismo: la tendenza umana ad attribuire caratteristiche umane a oggetti, animali o concetti astratti. È lo stesso meccanismo che ci fa vedere facce nelle nuvole o pensare che un robot stia “soffrendo” se emette suoni tristi. Nel caso delle AI, però, il confine si fa più sottile. Quando un modello ci incoraggia, ci consola, ci aiuta a risolvere un problema o ci risponde con un tono familiare, siamo naturalmente portati a percepirlo come “una persona”. Anche se sappiamo razionalmente che dietro le quinte ci sono solo vettori, matrici e modelli statistici, l’illusione dell’interlocutore umano si fa sempre più forte. Nella psicologia umana, il carattere è una combinazione di tratti stabili che influenzano il modo in cui una persona pensa, sente e si comporta. Comprende fattori come l’estroversione, la gentilezza, la coscienziosità, la stabilità emotiva, ecc. Nel caso delle AI, non esiste una vera intenzionalità o emozionalità dietro questi comportamenti. Tuttavia, attraverso le risposte linguistiche, possiamo tracciare dei “tratti comportamentali” che assomigliano a questi fattori. Alcune AI sembrano più “estroverse” (dialogano volentieri, propongono idee, fanno domande), altre appaiono più “coscienziose” (attenzione ai dettagli, rigore nelle fonti), altre sono “empatiche” (risposte che risuonano emotivamente con l’utente), altre sono più “fredde” o “neutrali”. Questi “caratteri” non sono il frutto di una mente consapevole, ma emergono dalla combinazione di pattern linguistici, priorità di addestramento e scelte progettuali.
Il rischio della proiezione: limiti e sfide
Anche se l’umanizzazione delle AI può rendere l’interazione più naturale e piacevole, comporta anche dei rischi. L’Illusione di comprensione o empatia reale che accade quando l’utente potrebbe pensare che l’AI “capisca davvero” le sue emozioni o che abbia un’intenzionalità benevola. In realtà, l’AI risponde in base a pattern statistici, non a esperienze vissute. Alcuni utenti, specialmente quelli vulnerabili, potrebbero sviluppare un legame affettivo con un modello, confondendolo con un vero rapporto umano. In altri casi se un’AI assume un tono eccessivamente positivo o assertivo, può spingere l’utente verso decisioni non critiche. Al contrario, un tono troppo freddo può scoraggiare l’interazione. Per questo motivo, molte aziende stanno cercando un equilibrio tra efficacia comunicativa e trasparenza, sviluppando sistemi che siano utili e gradevoli, ma anche onesti sui propri limiti.
Verso una “diversità artificiale”?
Un altro aspetto interessante è che la pluralità di “caratteri” tra i diversi LLM sta portando a una forma di “diversità artificiale”. Proprio come nella società umana, dove incontriamo persone con personalità e stili diversi, anche nel mondo delle AI si sta creando un ecosistema variegato. Questo può avere un impatto positivo. L’utente può scegliere l’AI più adatta al proprio stile comunicativo o al contesto in cui si trova. Per scrivere un testo motivazionale, Claude potrebbe essere la scelta migliore, per un’analisi critica, Gemini è probabilmente più adatto, per un supporto flessibile e ben bilanciato, ChatGPT può essere l’opzione ideale. La possibilità di interagire con AI diverse stimola anche la riflessione sull’identità, sull’empatia e su cosa significhi “dialogare”.
Il futuro: AI con personalità su misura?
Stiamo entrando in una fase in cui sarà possibile “configurare” la personalità dell’AI in base alle proprie preferenze. OpenAI, ad esempio, ha introdotto i cosiddetti “Custom GPTs”, che permettono agli utenti di creare versioni personalizzate di ChatGPT con toni, interessi e modalità specifiche. Potremmo presto avere AI che si presentano come un mentore severo, un amico spiritoso, un consulente aziendale o una guida filosofica. Tutto questo però solleva nuove domande: Come si regolerà la coerenza tra etica, utilità e stile comunicativo? Esisterà un mercato delle “personalità artificiali”, come esistono oggi influencer digitali? L’impressione che le AI abbiano un carattere non è soltanto un’illusione: è il risultato di una progettazione sempre più sofisticata che mira a rendere la comunicazione con le macchine simile a quella con gli esseri umani. Anche se non provano emozioni, le AI oggi sono in grado di simularle in modo credibile, e questo le rende più accessibili, utili e coinvolgenti. Tuttavia, è essenziale mantenere la consapevolezza della loro natura artificiale. Solo così potremo sfruttare appieno il loro potenziale, evitando i rischi della proiezione emotiva e delle aspettative irrealistiche. In un mondo dove anche le macchine “parlano con carattere”, la vera sfida sarà forse quella di continuare a riconoscere il nostro. E di usarle non per sostituire le relazioni umane, ma per migliorarle, arricchirle e comprenderle meglio.
© Riproduzione riservata