Iluzje AI przytłaczają bibliotekarzy fikcyjnymi informacjami

Systemy generatywnej sztucznej inteligencji (AI), takie jak ChatGPT, Gemini i Copilot, w coraz większym stopniu generują fałszywe informacje i sfałszowane źródła, co stanowi duże wyzwanie dla bibliotekarzy i instytucji odpowiedzialnych za dostarczanie dokładnych danych. Główny problem polega na tym, że narzędzia AI zawsze dają odpowiedź, nawet jeśli nie istnieją żadne prawdziwe informacje — po prostu wymyślają szczegóły, które wydają się prawdopodobne.

Rosnąca fala dezinformacji generowanej przez sztuczną inteligencję

Według Sarah Falls, bibliotekarki zajmującej się zapytaniami badawczymi w Bibliotece Wirginii, około 15% zapytań otrzymywanych przez jej pracowników jest obecnie pisanych przez sztuczną inteligencję. Prośby te często zawierają całkowicie fikcyjne cytaty i źródła, co zmusza bibliotekarzy do poświęcania dodatkowego czasu na weryfikację (lub obalenie) twierdzeń. Problem jest nie tylko irytujący; stanowi to fundamentalną wadę obecnego podejścia technologii do odkrywania wiedzy.

Międzynarodowy Komitet Czerwonego Krzyża (MKCK) publicznie ostrzegał przed tym problemem, twierdząc, że narzędzia sztucznej inteligencji nie są w stanie rozpoznać, kiedy źródła historyczne są niekompletne; zamiast tego wymyślają szczegóły.

MKCK radzi obecnie użytkownikom, aby bezpośrednio sprawdzali jego oficjalne katalogi i archiwa naukowe, zamiast polegać na listach generowanych przez sztuczną inteligencję. Podkreśla to szerszą obawę: dopóki sztuczna inteligencja nie stanie się bardziej niezawodna, ciężar sprawdzania faktów spadnie całkowicie na barki osób pracujących w archiwach.

Dlaczego to ma znaczenie

Tendencja ta jest istotna z kilku powodów. Po pierwsze, podkreśla ograniczenia obecnych modeli generatywnej sztucznej inteligencji. Systemy te zostały zaprojektowane do tworzenia treści, niekoniecznie przeglądania ich. Po drugie, powoduje nadmierne obciążenie i tak już przeciążonych zasobów bibliotecznych. Jak zauważa Folse, instytucje mogą wkrótce zostać zmuszone do ograniczenia czasu spędzanego na przeglądaniu informacji generowanych przez sztuczną inteligencję ze względu na ich ogromną objętość.

Wreszcie sytuacja ta potwierdza trwałą wartość ludzkiego doświadczenia. W przeciwieństwie do sztucznej inteligencji bibliotekarze są szkoleni w krytycznym myśleniu, przeprowadzaniu dokładnych poszukiwań i – co najważniejsze – przyznawaniu się, gdy nie znają odpowiedzi. Jest to podstawowa zasada solidnego zarządzania informacjami, której obecnie brakuje sztucznej inteligencji.

Nadmierne poleganie na treściach generowanych przez sztuczną inteligencję bez krytycznej oceny będzie nadal stanowić obciążenie dla bibliotekarzy i innych specjalistów w dziedzinie informacji. Rozwiązaniem nie jest rezygnacja ze sztucznej inteligencji, ale zrozumienie jej ograniczeń i nadanie priorytetu weryfikacji przez człowieka do czasu poprawy technologii.