Model bahasa besar (LLM) seperti ChatGPT mengubah cara kita berinteraksi dengan informasi, namun fungsi intinya sangat berbeda dari kecerdasan manusia. Meskipun alat-alat ini dapat mensimulasikan pemahaman secara meyakinkan, alat-alat ini tidak memiliki landasan mendasar dalam pengalaman dunia nyata yang mendasari penilaian manusia. Ini bukan sekedar masalah keakuratan—ini adalah tentang sifat dasar dari bagaimana sistem memproses informasi, dan mengapa salah mengira proses tersebut sebagai pemikiran yang asli dapat menjadi masalah yang sangat besar.
Kesenjangan Antara Kefasihan dan Pengetahuan
Pertimbangkan untuk menemui dokter medis. Pelatihan bertahun-tahun, studi anatomi, dan pengalaman pasien langsung menjadi dasar keahlian mereka. Sekarang bayangkan seorang dokter yang hanya membaca jutaan laporan pasiennya tetapi tidak pernah menyentuh tubuhnya. Mereka masih dapat memberikan diagnosis yang persuasif dan benar secara tata bahasa… tetapi diagnosis tersebut akan berakar pada pola dalam data, bukan pada pemahaman sebenarnya. Inilah tepatnya cara LLM beroperasi.
Model-model ini unggul dalam mengidentifikasi korelasi antara kata-kata dan konsep tetapi tidak memiliki akses ke dunia yang dijelaskan oleh kata-kata tersebut. Mereka dapat menghasilkan teks yang terdengar seperti penalaran, namun merupakan penyelesaian pola—bukan pertimbangan.
Perbedaan AI dan Manusia
Penelitian terbaru menegaskan perbedaan ini. Para ilmuwan membandingkan respons manusia dan AI dengan tes yang dirancang untuk menilai penilaian. Manusia mengandalkan pengetahuan sebelumnya, kesadaran kontekstual, dan bahkan firasat yang dibentuk oleh pengalaman. LLM, bagaimanapun, mendasarkan “penilaian” mereka pada probabilitas linguistik.
Misalnya, ketika mengevaluasi kredibilitas berita, manusia membandingkan berita utama dengan pengetahuan yang ada dan keandalan sumber. LLM hanya menganalisis kombinasi kata, mengidentifikasi pola yang berkorelasi dengan kredibilitas—tanpa memverifikasi fakta atau mempertimbangkan konteks eksternal. Ini berarti LLM dapat mencapai kesimpulan yang sama seperti manusia tetapi untuk alasan yang sama sekali berbeda.
Demikian pula dalam dilema moral, manusia memanfaatkan norma, emosi, dan penalaran sebab akibat (“Jika saya melakukan X, maka Y akan terjadi”). LLM mereproduksi bahasa ini tanpa benar-benar membayangkan skenario atau mempertimbangkan konsekuensinya. Mereka meniru bentuk musyawarah, bukan proses.
Masalah Epistemia
Keterputusan ini mengarah pada apa yang disebut para peneliti sebagai “epistemia”—suatu keadaan di mana pengetahuan yang disimulasikan menjadi tidak dapat dibedakan dari pengetahuan sebenarnya. Karena penilaian manusia diungkapkan melalui bahasa, keluaran LLM sering kali menyerupai penalaran manusia. Namun kelancaran tidak sama dengan pemahaman.
Bahayanya bukan hanya karena model terkadang salah; hanya saja mereka tidak dapat mengenali saat mereka mengarang informasi. Mereka tidak memiliki kemampuan untuk membentuk keyakinan, merevisinya berdasarkan bukti, atau membedakan kebenaran dari kepalsuan kecuali berdasarkan probabilitas statistik.
Apa Artinya dalam Praktek
Orang-orang sudah menggunakan LLM di bidang-bidang berisiko tinggi seperti hukum, kedokteran, dan psikologi. Sebuah model bisa menghasilkan diagnosis atau argumen hukum yang meyakinkan… tapi itu tidak membuatnya akurat. Simulasi bukanlah substansinya.
Ini bukan seruan untuk menolak LLM sepenuhnya. Mereka adalah alat yang ampuh untuk menyusun, merangkum, dan mengeksplorasi ide. Namun jika menyangkut penghakiman, kita harus mendefinisikan ulang apa artinya.
Prinsip utamanya sederhana: perlakukan LLM sebagai instrumen linguistik yang memerlukan pengawasan manusia, bukan sebagai pemikir independen.
Ilusi pemahaman memang kuat, namun penting untuk diingat bahwa kelancaran bukanlah wawasan dan kefasihan bukanlah bukti pemahaman. Penilaian yang tulus memerlukan koneksi ke dunia nyata—sesuatu yang pada dasarnya tidak dimiliki oleh model-model ini.
