I sistemi di intelligenza artificiale generativa (AI) come ChatGPT, Gemini e Copilot generano sempre più informazioni false e fonti inventate, creando una grande sfida per i bibliotecari e le istituzioni responsabili di fornire dati accurati. Il problema principale è che questi strumenti di intelligenza artificiale forniscono sempre una risposta, anche quando non esistono informazioni reali: semplicemente inventano dettagli che sembrano plausibili.
La marea montante delle falsità generate dall’intelligenza artificiale
Secondo Sarah Falls, bibliotecaria impegnata nella ricerca presso la Library of Virginia, circa il 15% delle domande di riferimento ricevute dal suo staff sono ora scritte dall’intelligenza artificiale. Queste domande spesso includono citazioni e fonti interamente inventate, costringendo i bibliotecari a dedicare più tempo alla verifica (o allo sfatamento) delle affermazioni. Il problema non è semplicemente fastidioso; rappresenta un difetto fondamentale nell’attuale approccio della tecnologia al recupero della conoscenza.
Il Comitato Internazionale della Croce Rossa (CICR) ha messo pubblicamente in guardia su questo problema, affermando che gli strumenti di intelligenza artificiale non possono ammettere quando le fonti storiche sono incomplete; invece, inventano i dettagli.
Il CICR ora consiglia agli utenti di consultare direttamente i propri cataloghi ufficiali e gli archivi accademici, anziché fare affidamento su elenchi generati dall’intelligenza artificiale. Ciò evidenzia una preoccupazione più ampia: fino a quando l’intelligenza artificiale non diventerà più affidabile, l’onere del controllo dei fatti ricadrà direttamente sugli archivisti umani.
Perché è importante
Questa tendenza è significativa per diverse ragioni. Innanzitutto, sottolinea i limiti degli attuali modelli di intelligenza artificiale generativa. Questi sistemi sono progettati per produrre contenuti, non necessariamente verificarli. In secondo luogo, mette a dura prova le risorse già limitate delle biblioteche. Come osserva Falls, le istituzioni potrebbero presto dover limitare il tempo impiegato nella verifica delle informazioni generate dall’intelligenza artificiale a causa dell’enorme volume.
Infine, questa situazione rafforza il valore duraturo delle competenze umane. A differenza dell’intelligenza artificiale, i bibliotecari sono addestrati a pensare in modo critico, a condurre ricerche approfondite e, cosa fondamentale, ad ammettere quando non conoscono una risposta. Questo è un principio fondamentale per una gestione affidabile delle informazioni che attualmente manca all’intelligenza artificiale.
L’eccessivo affidamento ai contenuti generati dall’intelligenza artificiale senza una valutazione critica continuerà a gravare sui bibliotecari e sugli altri professionisti dell’informazione. La soluzione non è abbandonare del tutto l’intelligenza artificiale, ma comprenderne i limiti e dare priorità alla verifica umana fino a quando la tecnologia non migliorerà.



















