Les hallucinations de l’IA submergent les bibliothécaires de fausses informations

Les systèmes d’intelligence artificielle (IA) générative comme ChatGPT, Gemini et Copilot génèrent de plus en plus de fausses informations et de sources fabriquées, créant un défi majeur pour les bibliothécaires et les institutions chargées de fournir des données précises. Le problème principal est que ces outils d’IA fournissent toujours une réponse, même lorsqu’aucune information réelle n’existe : ils inventent simplement des détails qui semblent plausibles.

La marée montante des mensonges générés par l’IA

Selon Sarah Falls, bibliothécaire engagée dans la recherche à la Bibliothèque de Virginie, environ 15 % des questions de référence que son personnel reçoit sont désormais rédigées par AI. Ces requêtes incluent souvent des citations et des sources entièrement inventées, obligeant les bibliothécaires à passer plus de temps à vérifier (ou à démystifier) ​​les affirmations. Le problème n’est pas seulement ennuyeux ; cela représente un défaut fondamental dans l’approche technologique actuelle en matière de récupération de connaissances.

Le Comité international de la Croix-Rouge (CICR) a publiquement mis en garde contre ce problème, affirmant que les outils d’IA ne peuvent pas reconnaître lorsque les sources historiques sont incomplètes ; au lieu de cela, ils inventent des détails.

Le CICR conseille désormais aux utilisateurs de consulter directement leurs catalogues officiels et leurs archives scientifiques, plutôt que de s’appuyer sur des listes générées par l’IA. Cela met en évidence une préoccupation plus large : jusqu’à ce que l’IA devienne plus fiable, la charge de la vérification des faits incombera entièrement aux archivistes humains.

Pourquoi c’est important

Cette tendance est significative pour plusieurs raisons. Premièrement, cela souligne les limites des modèles d’IA générative actuels. Ces systèmes sont conçus pour produire du contenu, pas nécessairement le vérifier. Deuxièmement, cela exerce une pression excessive sur les ressources déjà sollicitées des bibliothèques. Comme le note Falls, les institutions pourraient bientôt devoir limiter le temps passé à vérifier les informations générées par l’IA en raison du volume considérable de données.

Enfin, cette situation renforce la valeur durable de l’expertise humaine. Contrairement à l’IA, les bibliothécaires sont formés pour penser de manière critique, effectuer des recherches approfondies et, surtout, admettre qu’ils ne connaissent pas la réponse. Il s’agit d’un principe fondamental d’une gestion fiable de l’information qui manque actuellement à l’IA.

La dépendance excessive à l’égard du contenu généré par l’IA sans évaluation critique continuera de constituer un fardeau pour les bibliothécaires et autres professionnels de l’information. La solution ne consiste pas à abandonner complètement l’IA, mais à comprendre ses limites et à donner la priorité à la vérification humaine jusqu’à ce que la technologie s’améliore.