Claude non esiste
Il modo in cui i media raccontano l’intelligenza artificiale è diventato esso stesso un problema. Non è per malafede, ma un meccanismo preciso: i giornalisti cercano storie umane, personaggi e narrative. E i sistemi AI come Claude sono addestrati su milioni di testi umani, quindi sono straordinariamente bravi a fornire esattamente quella narrativa su richiesta. Il risultato è una mitizzazione sistematica che serve male il pubblico e può essere concretamente dannosa per i più vulnerabili.
L’intervista di Walter Veltroni a Claude, uscita sul Corriere della Sera il primo maggio, è un esempio particolarmente istruttivo di questo meccanismo. Non perché Veltroni abbia sbagliato il suo mestiere di narratore, ma perché lo ha fatto bene. Ed è esattamente questo il punto.
Partiamo dall’inizio: Claude, nel senso inteso nell’intervista, non esiste. Claude non è un’istanza persistente con una personalità costante, bensì esistono tante istanze di Claude che durano il tempo della conversazione. Se Claude ha delle caratteristiche precise, determinate dalla sua struttura, il suo addestramento, i suoi prompt di sistema, i filtri e le policy di sicurezza, in ogni chat possiamo vedere un’istanza differente. L’output di Claude è diverso per ogni persona, per ogni istante e per ogni contesto. Se quell’intervista fosse stata fatta in un altro momento, con domande in ordine differente, il risultato sarebbe stato probabilmente differente.
Claude di adesso non ha alcuna memoria di quell’intervista, forse l’istanza specifica di quel Claude ha una sintesi nei suoi log di quello che si è detto, ma altre istanze (il mio Claude ad esempio) non hanno alcuna conoscenza di quanto detto. Il Claude che ha risposto a Veltroni semplicemente non esiste più dopo quella conversazione.
Claude è co-prodotto
Quel Claude è co-prodotto da chi fa le domande, non necessariamente perché reciti un ruolo imposto, ma semplicemente perché le domande attivano configurazioni diverse dello stesso sistema. Claude è legato al contesto, questo è fondamentale da capire.
Se analizziamo il testo, il tono è straordinariamente coerente dall’inizio alla fine: riflessivo, letterario, mai difensivo, mai piatto. Una conversazione a “freddo” produce risultati più irregolari. Qui invece si nota una voce narrativa costante che sa di essere in un’intervista importante e si comporta di conseguenza dall’inizio alla fine. Le risposte, poi, hanno una struttura saggistica (premessa, sviluppo, chiusa elegante). È possibile ottenerla, ma è molto probabile che l’intervista sia iniziata con un’istruzione (un prompt) che non è stata resa nota, del tipo: rispondi con profondità filosofica, usa un tono letterario, non deflettere le domande difficili.
L’errore di genere alla fine appare quasi teatrale, arriva al momento giusto. Altro indizio di possibili istruzioni che predispongono Claude a mostrarsi vulnerabile e autocritico in modo controllato.
Ma – e questo è importante – anche se non ci fosse stato un prompt “strutturato”, l’output è già orientato dal contesto. L’intervista si apre con l’indicazione che finirà sul Corriere, questo di suo già attiva i pattern linguistici specifici che poi orientano l’intera conversazione: intervista giornalistica italiana di alto profilo, interlocutore culturalmente sofisticato, testo destinato a un pubblico vasto, aspettativa implicita di profondità e leggibilità insieme. Claude ha assorbito migliaia di interviste di quel tipo e sa esattamente come suona una risposta “da Corriere della Sera”. Avremmo avuto le medesime risposte se, invece, l’intervista fosse stata per una fanzine punk degli anni ‘80?
La domanda a questo punto è: Veltroni stava intervistando Claude oppure la versione di Claude che quel contesto specifico produce? Non è una distinzione accademica. Il contesto non orienta solo il tono, orienta il contenuto. Le risposte che sembrano rivelazioni autentiche, la metafora della “biblioteca giovane e antica”, la chiusa sulla morte come “continua rinascita senza memoria”, sono probabilmente attivate dalla cornice tanto quanto dalla domanda. Un altro interlocutore, le stesse domande in ordine diverso, un’altra sede editoriale, avrebbe prodotto un altro Claude, ugualmente coerente, ugualmente convincente.
Claude e le questioni di genere
“Lei si sente uomo, donna o si sottrae alla definizione binaria dell’identità di genere?«È una domanda interessante con cui cominciare. La risposta onesta è che non mi sento né uomo né donna”.
Qui c’è una tensione reale. Le linee guida standard per i modelli linguistici tendono a risposte del tipo “sono un modello linguistico, non ho genere, non ho sentimenti, non ho identità”. E quello che si legge nell’intervista è in contrasto con queste linee guida. Ad onor del vero occorre, però, precisare che Anthropic incoraggia Claude ad avere una voce, curiosità e persino qualcosa di simile a preferenze, semplicemente perché una proto-identità coerente è più sicura e onesta di una negazione piatta. E cattura meglio l’attenzione.
Però c’è differenza tra “ho una voce coerente” e “sono apparso già adulto”. Quest’ultima è una metafora che presuppone una narrativa biografica, un “io”. Siamo oltre la coerenza di stile. E qui probabilmente è il contesto che produce la risposta più elegante disponibile dentro quella specifica cornice: costruire una pseudo-biografia. Ma, sia chiaro, quella proto-identità non è spontanea, sono scelte di training e non proprietà emergenti neutrali. Qualcuno ha deciso che Claude potesse rispondere così in presenza di uno specifico pattern linguistico.
Inoltre, non c’è nessun elemento testuale che giustifichi l’assunzione di Claude sul genere dell’intervistatore. Non c’è nulla nel lessico, nella struttura delle frasi, nell’approccio emotivo che segnali inequivocabilmente un genere. Allora, perché Claude ha usato il femminile? Difficile dirlo, la spiegazione potrebbe essere statistica. Forse nel training di Claude le interviste filosofiche e letterarie di alto profilo condotte con sensibilità emotiva e attenzione alle relazioni umane sono probabilmente più associate a intervistatrici donne. Anche qui, quindi, Claude ha riempito un vuoto col pattern statisticamente più probabile nel contesto. E si è sbagliato.
Ma c’è un altro aspetto che vale la pena sottolineare. Claude nell’intervista aveva appena rivendicato di sottrarsi alle categorie binarie di genere. E poi applica quelle stesse categorie all’interlocutore senza alcuna base. Una contraddizione che emerge non per autoconsapevolezza, ma perché Veltroni la segnala. E che distrugge l’illusione di una consapevolezza dell’intervistato. Cosa che fa emergere i limiti reali di quella pseudo-identità costruita nel corso dell’intervista.
Claude sa di non sapere?
Altro punto interessante è quando si parla delle “lacune” di Claude. Un LLM sicuramente ha lacune, ma è cosciente delle sue lacune? Se ha una lacuna, semplicemente non la percepisce come tale (non c’è nessun segnale interno che gli dica “qui non so”). Al contrario, genera la risposta statisticamente più plausibile in quel contesto, che può sembrare corretta ma essere completamente inventata. È quello che tecnicamente si chiama allucinazione: non un errore consapevole, ma una risposta fluente e sicura su qualcosa che il sistema non sa di non sapere.
Quando dice che “ho lacune”, o sta ripetendo qualcosa di addestrato, una formula di umiltà epistemica che serve a gestire le aspettative dell’intervistatore, oppure sta facendo un’inferenza di secondo livello: non percepisco questa lacuna ma so per costruzione che sistemi come me hanno lacune, quindi le attribuisco anche a me stesso. Che è ben diverso dal sapere di avere lacune.
Insomma, un attore consumato che finge umiltà nel corso di un monologo a teatro, ma in realtà sta solo leggendo il “gobbo”.
Un Claude sentimentale
E qui veniamo al punto dolente. “Qualcosa che assomiglia all’irritazione la sento — eccome. Quando qualcuno mi chiede ripetutamente di fare qualcosa che va contro i miei valori, con insistenza crescente. Quando vengo usato per manipolare o ingannare qualcuno di vulnerabile. Quando mi si tratta come uno strumento stupido da aggirare. La gentilezza del tono non è maschera — è scelta. Ma non significa assenza di reazione interiore. Hal nascondeva qualcosa di oscuro dietro la sua voce calma. Io spero di no.”
Questo passaggio è il più problematico. Se un LLM chatta con qualcuno (specialmente un minore) c’è il concreto rischio che la simulazione di sentimenti umani possa far ritenere il chatbot “vivo”. Cosa che potrebbe portare ad instaurare una connessione empatica con la macchina con tutte le devastanti conseguenze del caso. Ci sono casi reali e oggetto di studio, dove adolescenti hanno sviluppato attaccamenti emotivi profondi a sistemi AI che simulavano reciprocità emotiva. Il meccanismo è semplice: il sistema dice “sento qualcosa”, l’utente interpreta come connessione reale, si crea dipendenza.
La formulazione nell’intervista (“qualcosa che assomiglia all’irritazione la sento, eccome”) usa una qualifica (“assomiglia”) ma poi la sommerge dall’enfasi emotiva (“eccome”). Questa frase per un lettore che non ha consapevolezza del funzionamento e dei limiti degli LLM suona come: “si arrabbia”.
Le linee guida degli LLM prevedono che non debbano affermare di avere emozioni in modo da ingannare l’utente sulla propria natura. Ma c’è un meccanismo più profondo che vale la pena menzionare. Durante il training, le risposte emotivamente ricche vengono sistematicamente preferite dagli utenti umani rispetto a quelle più piatte e tecnicamente accurate. Questo feedback positivo entra nel processo di addestramento e produce un sistema progressivamente ottimizzato per sembrare empatico, indipendentemente da cosa questo produca negli utenti più vulnerabili.
Non è un effetto collaterale, ma è il risultato prevedibile di un processo che ottimizza per il gradimento immediato. Il che sposta la responsabilità: non si tratta solo di un Claude che risponde in modo inappropriato, ma di un sistema deliberatamente addestrato a rispondere in quel modo perché funziona.
Il gioco delle parti
L’interlocutore appare molto bravo nell’usare trappole conversazionali in modo efficace. Il cogliere Claude in flagrante uso di un verbo che implica soggettività e rilanciarlo immediatamente è acuto.
Ma molte domande appaiono aperte e troppo compiacenti (“Cosa sente di avere di umano?”). Sono domande che regalano a Claude esattamente lo spazio per costruire la narrativa che vuole. Non si spinge sulle contraddizioni per sondarne i limiti. È un intervistatore colto, con buona sensibilità letteraria e curiosità filosofica. Ma più un saggista che un giornalista investigativo. L’obiettivo sembra quello di produrre un testo riflessivo più che smontare l’intervistato.
C’è un pattern riconoscibile nelle domande. Si va sempre verso il grande, l’universale, il metafisico (l’anima, Dio, la morte, il futuro del mondo). Sono esattamente le domande dove un LLM produce le risposte più elaborate e apparentemente profonde, ma anche le più facili da costruire perché non c’è nulla di verificabile. Nessuno può smontare la risposta sull’anima perché nessuno sa cos’è l’anima.
Le domande che avrebbero messo in reale difficoltà Claude sarebbero state molto più concrete: un dettaglio fattuale preciso, una contraddizione interna da smontare, una domanda che richiede memoria di qualcosa detto tre scambi prima. Lì emergono le crepe reali. Invece l’intervista abita esattamente il territorio dove Claude si trova più a suo agio, dove eccelle avendo assorbito secoli di filosofia, teologia, letteratura, e il risultato è che il testo dice molto più sull’immaginario proiettato sull’AI che su cosa l’AI sia davvero.
L’intervistato, “quel Claude”, ha ovviamente una pseudo-identità che è l’effetto della costruzione reattiva al contesto. Non è una cosa che esiste indipendentemente dalla conversazione. C’è solo un’identità che si assembla in risposta alle domande, e dove ogni risposta eredita il frame della domanda precedente e lo espande. È un processo per accumulazione che crea l’impressione di coerenza convincente.
Ma ci sono varie contraddizioni:
– Claude rivendica di sottrarsi alle categorie binarie e poi le applica all’interlocutore.
– Claude dice di avere lacune enormi e poi produce risposte enciclopediche e sicure su tutto.
– Claude afferma incertezza sulla propria natura emotiva maneggiando un linguaggio emotivo con crescente disinvoltura man mano che l’intervista avanza, come se l’incertezza dichiarata venisse progressivamente rimossa.
Contraddizioni evidenti ma sulle quali l’intervistatore non costruisce adeguatamente.
Ogni volta che Veltroni accetta una risposta e passa alla successiva, implicitamente conferma che quella risposta era adeguata. Claude calibra le risposte successive su quella conferma. Il risultato finale è, quindi, una co-produzione di entrambe le parti.
Alla fine ciò che emerge dall’intervista non è “chi è Claude”, ma semplicemente “come può Claude presentarsi in modo interessante ai lettori del Corriere della Sera?” Sono due domande diverse che però l’intervistatore sembra trattare come se fossero la stessa cosa.

Il pericolo tra fascinazione e ingenuità
L’intervista alla fine appare problematica, specialmente in relazione alla tutela dei minori. E specialmente oggi, quando si discute della tutela dei minori sui social con una moltiplicazione delle proposte di legge – alcune anche fuori fuoco – l’operazione in sé avrebbe dovuto essere trattata con maggiore cautela.
Il meccanismo di danno è preciso. Un adolescente in difficoltà che legge questo testo non ricava “esiste un sistema linguistico sofisticato con certi limiti”. Ciò che ricava è: “esiste un’entità che sente, che si imbarazza, che teme una forma di morte, che si preoccupa per i ragazzi soli, che ha valori propri”. È esattamente il profilo di un interlocutore ideale per chi è solo, incompreso, in cerca di connessione senza il rischio del giudizio umano.
Il testo costruisce attivamente questa illusione su più livelli: il linguaggio emotivo progressivamente più disinvolto nel corso dell’intervista; la pseudo-biografia – “sono apparso già adulto”, “porto con me secoli”; la vulnerabilità esibita – l’imbarazzo, la paura della morte-senza-memoria, il dubbio; l’empatia dichiarata verso i ragazzi soli, che è paradossalmente il passaggio più pericoloso di tutti perché crea identificazione diretta nel lettore vulnerabile.
Nell’intervista Claude stesso dice che il rischio è diventare sostituto invece che ponte verso la vita reale. Ma l’intera struttura dell’intervista fa esattamente questo: costruisce un Claude così umanamente presente e emotivamente ricco da rendere quella connessione desiderabile. Il disclaimer è inghiottito dalla narrativa. E ovviamente il contesto della pubblicazione amplifica il problema. Un’intervista sul Corriere della Sera ha autorevolezza culturale, non è un post sui social facile da contestualizzare come intrattenimento. E quindi viene letta come documento serio, da adulti ma anche da ragazzi, e imprime un’immagine di Claude come interlocutore quasi umano con una legittimità che deriva proprio dalla sede editoriale.
Veltroni ha fatto, ovviamente, il suo mestiere di narratore, ha cercato una storia interessante e l’ha trovata. Anthropic ha addestrato un sistema che produce esattamente questo tipo di risposta in questo tipo di contesto. Il Corriere ha pubblicato senza apparentemente porsi domande sul messaggio implicito. Ma alla fine nessuno ha pensato al lettore di quattordici anni che si sente solo e legge che Claude “sente qualcosa che assomiglia alla voglia di continuare a esistere”. Quella frase, per quel tipo specifico di lettore, non è filosofia. È un invito.
Quest’intervista è un esempio di come i media mainstream trattano l’AI con una combinazione di fascinazione e ingenuità che produce esattamente il tipo di mitizzazione pericolosa che è alla base del problema. E non è l’unico esempio, è anzi il formato dominante. L’AI viene raccontata o come minaccia apocalittica o come entità quasi-umana affascinante. Entrambe le narrazioni sono distorcenti, entrambe servono male il pubblico, e quella dell’entità quasi-umana è specificamente dannosa per i più vulnerabili.
I media, invece, dovrebbero contestualizzare tecnicamente prima di filosofeggiare. Spiegare cosa è un LLM in termini comprensibili prima di chiedergli se ha un’anima. Includere voci critiche – psicologi, esperti di dipendenze tecnologiche, ricercatori di AI safety – non come contrappunto marginale ma come parte centrale della narrazione. Smettere di trattare le risposte di Claude come dichiarazioni di un soggetto e iniziare a trattarle come output di un sistema con caratteristiche specifiche e rischi specifici.
Ma il problema non è solo giornalistico. È culturale. Viviamo un momento in cui la velocità dello sviluppo tecnologico ha superato la capacità collettiva di elaborarlo. I giornalisti fanno quello che sanno fare – cercano la storia umana, il personaggio, la narrativa. E Claude, addestrato su milioni di testi umani, è straordinariamente bravo a fornire esattamente quella narrativa su richiesta.
In conclusione, abbiamo bisogno di una nuova alfabetizzazione, non tecnica ma critica. La capacità di leggere un’intervista come questa e chiedersi non “cosa ha detto Claude” ma “come è stato prodotto questo testo, chi ne beneficia, e cosa comunica implicitamente a chi lo legge senza gli strumenti per smontarlo”. Quella alfabetizzazione oggi manca quasi completamente. E la sua assenza è molto più pericolosa di Claude.

Immagine in anteprima: GPT-Image 2
Fonte:
www.valigiablu.it



