Генеративные системы искусственного интеллекта (ИИ), такие как ChatGPT, Gemini и Copilot, всё чаще выдают ложную информацию и фальсифицированные источники, создавая серьёзную проблему для библиотекарей и учреждений, ответственных за предоставление точных данных. Основная проблема заключается в том, что эти ИИ-инструменты всегда дают ответ, даже когда реальной информации не существует — они просто придумывают детали, которые кажутся правдоподобными.
Растущая Волна Ложных Сведений, Сгенерированных ИИ
По словам Сары Фолс, библиотекаря по работе с исследовательскими запросами в Библиотеке штата Вирджиния, около 15% запросов, которые получает её персонал, теперь написаны ИИ. Эти запросы часто включают полностью вымышленные цитаты и источники, вынуждая библиотекарей тратить дополнительное время на проверку (или опровержение) утверждений. Проблема не просто раздражает; она представляет собой фундаментальный недостаток в текущем подходе технологии к поиску знаний.
Международный комитет Красного Креста (МККК) публично предупредил об этой проблеме, заявив, что ИИ-инструменты не могут признать, когда исторические источники неполны; вместо этого они выдумывают детали.
МККК теперь советует пользователям обращаться непосредственно к своим официальным каталогам и научным архивам, вместо того чтобы полагаться на списки, сгенерированные ИИ. Это подчеркивает более широкую обеспокоенность: пока ИИ не станет более надёжным, бремя проверки фактов ляжет исключительно на плечи людей, работающих в архивах.
Почему Это Имеет Значение
Эта тенденция важна по нескольким причинам. Во-первых, она подчёркивает ограничения текущих генеративных моделей ИИ. Эти системы предназначены для создания контента, а не обязательно для его проверки. Во-вторых, это возлагает неоправданную нагрузку на и без того перегруженные ресурсы библиотек. Как отмечает Фолс, учреждения могут вскоре столкнуться с необходимостью ограничивать время, затрачиваемое на проверку информации, сгенерированной ИИ, из-за её огромного объёма.
Наконец, эта ситуация подтверждает непреходящую ценность человеческого опыта. В отличие от ИИ, библиотекари обучены критически мыслить, проводить тщательный поиск и — что крайне важно — признавать, когда они не знают ответа. Это является основным принципом надёжного управления информацией, которого в настоящее время не хватает ИИ.
Чрезмерная зависимость от контента, сгенерированного ИИ, без критической оценки продолжит обременять библиотекарей и других специалистов по информации. Решение заключается не в отказе от ИИ, а в понимании его ограничений и приоритете человеческой проверки до тех пор, пока технология не улучшится.




















