Generatieve kunstmatige intelligentie (AI)-systemen zoals ChatGPT, Gemini en Copilot genereren steeds vaker valse informatie en verzonnen bronnen, wat een grote uitdaging vormt voor bibliothecarissen en instellingen die verantwoordelijk zijn voor het verstrekken van nauwkeurige gegevens. Het kernprobleem is dat deze AI-tools altijd een antwoord bieden, zelfs als er geen echte informatie bestaat. Ze verzinnen eenvoudigweg details die plausibel lijken.
Het opkomende tij van door AI gegenereerde onwaarheden
Volgens Sarah Falls, een onderzoeksbibliothecaris bij de Bibliotheek van Virginia, wordt ongeveer 15% van de referentievragen die haar personeel ontvangt nu door AI geschreven. Deze zoekopdrachten bevatten vaak volledig verzonnen citaten en bronnen, waardoor bibliothecarissen extra tijd moeten besteden aan het verifiëren (of ontkrachten) van de beweringen. Het probleem is niet alleen maar vervelend; het vertegenwoordigt een fundamentele tekortkoming in de huidige technologiebenadering van het ophalen van kennis.
Het Internationale Comité van het Rode Kruis (ICRC) heeft publiekelijk gewaarschuwd voor dit probleem en stelt dat AI-instrumenten niet kunnen toegeven wanneer historische bronnen onvolledig zijn; in plaats daarvan bedenken ze details.
Het ICRC adviseert gebruikers nu om hun officiële catalogi en wetenschappelijke archieven rechtstreeks te raadplegen, in plaats van te vertrouwen op door AI gegenereerde lijsten. Dit benadrukt een bredere zorg: totdat AI betrouwbaarder wordt, zal de last van het controleren van feiten volledig op de menselijke archivarissen terechtkomen.
Waarom dit belangrijk is
Deze trend is om verschillende redenen significant. Ten eerste onderstreept het de beperkingen van de huidige generatieve AI-modellen. Deze systemen zijn ontworpen om inhoud te produceren, en niet noodzakelijkerwijs verifiëren. Ten tweede legt het een onnodige druk op de toch al overbelaste bibliotheekbronnen. Zoals Falls opmerkt, zullen instellingen vanwege de enorme omvang binnenkort wellicht de tijd moeten beperken die wordt besteed aan het verifiëren van door AI gegenereerde informatie.
Ten slotte versterkt deze situatie de blijvende waarde van menselijke expertise. In tegenstelling tot AI zijn bibliothecarissen getraind om kritisch na te denken, grondige zoekopdrachten uit te voeren en – cruciaal – toe te geven als ze het antwoord niet weten. Dit is een kernprincipe van betrouwbaar informatiebeheer dat AI momenteel ontbeert.
Het overdreven vertrouwen op door AI gegenereerde inhoud zonder kritische evaluatie zal een last blijven vormen voor bibliothecarissen en andere informatieprofessionals. De oplossing is niet om AI volledig achterwege te laten, maar om de beperkingen ervan te begrijpen en prioriteit te geven aan menselijke verificatie totdat de technologie verbetert.
