I modelli linguistici di grandi dimensioni (LLM) come ChatGPT stanno rimodellando il modo in cui interagiamo con le informazioni, ma la loro funzione principale differisce notevolmente dall’intelligenza umana. Sebbene questi strumenti possano simulare in modo convincente la comprensione, mancano delle basi fondamentali nell’esperienza del mondo reale che sono alla base del giudizio umano. Non è semplicemente una questione di accuratezza: riguarda la natura stessa di come questi sistemi elaborano le informazioni e il motivo per cui confondere quel processo con un pensiero autentico può essere profondamente problematico.

Il divario tra fluidità e conoscenza

Considera un medico. Anni di formazione, studi di anatomia ed esperienza diretta con i pazienti costituiscono la base della loro competenza. Ora immagina un medico che ha letto solo milioni di rapporti di pazienti ma non ha mai toccato un corpo. Potrebbero comunque fornire una diagnosi persuasiva e grammaticalmente corretta… ma sarebbe radicata nei modelli all’interno dei dati, non nella comprensione effettiva. Questo è esattamente il modo in cui funzionano gli LLM.

Questi modelli eccellono nell’individuare le correlazioni tra parole e concetti ma non hanno accesso al mondo descritto da quelle parole. Possono generare testo che sembra un ragionamento, ma è il completamento di uno schema, non una deliberazione.

Differenza tra intelligenza artificiale e esseri umani

Ricerche recenti confermano questa divergenza. Gli scienziati hanno confrontato le risposte umane e quelle dell’intelligenza artificiale ai test progettati per valutare il giudizio. Gli esseri umani fanno affidamento sulla conoscenza pregressa, sulla consapevolezza contestuale e persino sui sentimenti viscerali modellati dall’esperienza. Gli LLM, tuttavia, basano i loro “giudizi” sulle probabilità linguistiche.

Ad esempio, quando valutano la credibilità delle notizie, gli esseri umani controllano i titoli rispetto alle conoscenze esistenti e all’affidabilità delle fonti. Gli LLM analizzano semplicemente le combinazioni di parole, identificando modelli correlati alla credibilità, senza verificare i fatti o considerare il contesto esterno. Ciò significa che un LLM può raggiungere la stessa conclusione di un essere umano ma per ragioni completamente diverse.

Allo stesso modo, nei dilemmi morali, gli esseri umani si basano su norme, emozioni e ragionamenti causali (“Se faccio X, allora accadrà Y”). Gli LLM riproducono questo linguaggio senza immaginare effettivamente scenari o soppesarne le conseguenze. Imitano la forma della deliberazione, non il processo.

Il problema dell’epistemia

Questa disconnessione porta a ciò che i ricercatori chiamano “epistemia”, uno stato in cui la conoscenza simulata diventa indistinguibile dalla conoscenza reale. Poiché il giudizio umano è espresso attraverso il linguaggio, i risultati del LLM spesso assomigliano al ragionamento umano. Ma la fluidità non equivale alla comprensione.

Il pericolo non è solo che i modelli a volte siano sbagliati; è che non riescono a riconoscere quando stanno fabbricando informazioni. Non hanno la capacità di formare convinzioni, rivederle sulla base di prove o distinguere la verità dalla menzogna se non in base alla probabilità statistica.

Cosa significa in pratica

Le persone stanno già utilizzando i LLM in campi ad alto rischio come diritto, medicina e psicologia. Un modello può generare una diagnosi convincente o un’argomentazione legale… ma ciò non lo rende accurato. La simulazione non è la sostanza.

Questa non è una chiamata a rifiutare completamente i LLM. Sono strumenti potenti per elaborare, riassumere ed esplorare idee. Ma quando si tratta di giudizio, dobbiamo ridefinire cosa significa.

Il punto fondamentale è semplice: trattare gli LLM come strumenti linguistici che richiedono la supervisione umana, non come pensatori indipendenti.

L’illusione della comprensione è potente, ma è fondamentale ricordare che la fluidità non è intuizione e l’eloquenza non è prova di comprensione. Un giudizio genuino richiede una connessione con il mondo, qualcosa che a questi modelli fondamentalmente manca.