Systeme der generativen künstlichen Intelligenz (KI) wie ChatGPT, Gemini und Copilot generieren zunehmend falsche Informationen und erfundene Quellen, was eine große Herausforderung für Bibliothekare und Institutionen darstellt, die für die Bereitstellung genauer Daten verantwortlich sind. Das Kernproblem besteht darin, dass diese KI-Tools immer eine Antwort liefern, auch wenn keine echten Informationen vorliegen – sie erfinden einfach Details, die plausibel erscheinen.
Die steigende Flut KI-generierter Unwahrheiten
Laut Sarah Falls, einer Forschungsbibliothekarin an der Library of Virginia, werden mittlerweile etwa 15 % der Referenzfragen, die ihre Mitarbeiter erhalten, von KI verfasst. Bei diesen Abfragen handelt es sich häufig um vollständig erfundene Zitate und Quellen, sodass Bibliothekare zusätzliche Zeit für die Überprüfung (oder Widerlegung) der Behauptungen aufwenden müssen. Das Problem ist nicht nur ärgerlich; Dies stellt einen grundlegenden Fehler im aktuellen Ansatz der Technologie zur Wissensbeschaffung dar.
Das Internationale Komitee vom Roten Kreuz (IKRK) hat öffentlich vor diesem Problem gewarnt und erklärt, dass KI-Tools nicht zugeben können, wenn historische Quellen unvollständig sind; Stattdessen erfinden sie Details.
Das IKRK empfiehlt Benutzern nun, ihre offiziellen Kataloge und wissenschaftlichen Archive direkt zu konsultieren, anstatt sich auf KI-generierte Listen zu verlassen. Dies verdeutlicht eine umfassendere Sorge: Solange die KI nicht zuverlässiger wird, wird die Last der Faktenprüfung direkt bei den menschlichen Archivaren liegen.
Warum das wichtig ist
Dieser Trend ist aus mehreren Gründen bedeutsam. Erstens unterstreicht es die Grenzen aktueller generativer KI-Modelle. Diese Systeme sind darauf ausgelegt, Inhalte zu produzieren und nicht unbedingt zu verifizieren. Zweitens werden die bereits erschöpften Bibliotheksressourcen übermäßig belastet. Wie Falls anmerkt, müssen Institutionen aufgrund der schieren Menge möglicherweise bald den Zeitaufwand für die Überprüfung von KI-generierten Informationen begrenzen.
Schließlich stärkt diese Situation den bleibenden Wert menschlichen Fachwissens. Im Gegensatz zur KI sind Bibliothekare darauf trainiert, kritisch zu denken, gründliche Recherchen durchzuführen und – was entscheidend ist – zuzugeben, wenn sie keine Antwort wissen. Dies ist ein Kernprinzip eines zuverlässigen Informationsmanagements, das der KI derzeit fehlt.
Die übermäßige Abhängigkeit von KI-generierten Inhalten ohne kritische Bewertung wird Bibliothekare und andere Informationsfachleute weiterhin belasten. Die Lösung besteht nicht darin, die KI vollständig aufzugeben, sondern ihre Grenzen zu verstehen und der menschlichen Überprüfung Vorrang einzuräumen, bis sich die Technologie verbessert.
