Sistem kecerdasan buatan (AI) generatif seperti ChatGPT, Gemini, dan Copilot semakin banyak menghasilkan informasi palsu dan sumber palsu, sehingga menciptakan tantangan besar bagi pustakawan dan lembaga yang bertanggung jawab menyediakan data akurat. Masalah intinya adalah alat AI ini selalu memberikan jawaban, bahkan ketika tidak ada informasi nyata—alat tersebut hanya menciptakan detail yang tampak masuk akal.
Meningkatnya Gelombang Kepalsuan yang Dihasilkan oleh AI
Menurut Sarah Falls, pustakawan penelitian di Perpustakaan Virginia, sekitar 15% pertanyaan referensi yang diterima stafnya kini ditulis oleh AI. Pertanyaan ini sering kali menyertakan kutipan dan sumber yang dibuat-buat, sehingga memaksa pustakawan menghabiskan waktu ekstra untuk memverifikasi (atau membantah) klaim tersebut. Masalah ini tidak hanya mengganggu; hal ini mewakili kelemahan mendasar dalam pendekatan teknologi saat ini terhadap pengambilan pengetahuan.
Komite Internasional Palang Merah (ICRC) telah secara terbuka memperingatkan mengenai masalah ini, dengan menyatakan bahwa alat AI tidak dapat mengakui sumber sejarah yang tidak lengkap; sebaliknya, mereka menciptakan detail.
ICRC kini menyarankan pengguna untuk melihat katalog resmi dan arsip ilmiah mereka secara langsung, daripada mengandalkan daftar yang dibuat oleh AI. Hal ini menyoroti kekhawatiran yang lebih luas: sampai AI menjadi lebih andal, beban pengecekan fakta akan sepenuhnya ditanggung oleh manusia arsiparis.
Mengapa Ini Penting
Tren ini penting karena beberapa alasan. Pertama, hal ini menggarisbawahi keterbatasan model AI generatif saat ini. Sistem ini dirancang untuk menghasilkan konten, tidak harus memverifikasi konten tersebut. Kedua, hal ini memberikan tekanan yang tidak semestinya pada sumber daya perpustakaan yang sudah terbatas. Seperti yang dicatat oleh Falls, institusi mungkin perlu segera membatasi waktu yang dihabiskan untuk memverifikasi informasi yang dihasilkan AI karena banyaknya jumlah informasi yang dihasilkan.
Pada akhirnya, situasi ini memperkuat nilai abadi dari keahlian manusia. Tidak seperti AI, pustakawan dilatih untuk berpikir kritis, melakukan pencarian menyeluruh, dan—yang terpenting—mengakui ketika mereka tidak mengetahui jawabannya. Ini adalah prinsip inti pengelolaan informasi yang andal yang saat ini tidak dimiliki oleh AI.
Ketergantungan yang berlebihan pada konten yang dihasilkan AI tanpa evaluasi kritis akan terus membebani pustakawan dan profesional informasi lainnya. Solusinya bukan dengan meninggalkan AI sepenuhnya, namun memahami keterbatasannya dan memprioritaskan verifikasi manusia hingga teknologinya berkembang.
