Velké jazykové modely (LLM), jako je ChatGPT, mění způsob, jakým interagujeme s informacemi, ale jejich základní funkce se dramaticky liší od lidské inteligence. I když tyto nástroje dokážou přesvědčivě simulovat porozumění, postrádají základní základ v reálném světě, který je základem lidského úsudku. Není to jen otázka přesnosti – jde o samotnou povahu toho, jak tyto systémy zpracovávají informace, a proč může být zaměňování tohoto procesu s pravdivým myšlením hluboce problematické.

Propast mezi plynulostí a znalostmi

Představte si lékaře. Léta školení, studium anatomie a přímé zkušenosti s pacienty tvoří základ jeho znalostí. Nyní si představte lékaře, který četl miliony zpráv pacientů, ale nikdy se nedotkl těla. Stále může stanovit přesvědčivou, gramaticky správnou diagnózu… ale bude založena spíše na vzorcích v datech než na skutečném porozumění. Přesně tak fungují LLM.

Tyto modely jsou vynikající při identifikaci korelací mezi slovy a pojmy, ale nemají žádný přístup ke světu, který tato slova popisují. Mohou generovat text, který zní jako uvažování, ale je to doplňování vzoru, nikoli úvaha.

Jak se AI a lidé liší

Nedávný výzkum tento rozdíl potvrzuje. Vědci porovnávali reakce lidí a umělé inteligence s testy navrženými k měření úsudku. Lidé se spoléhají na předchozí znalosti, porozumění kontextu a dokonce i intuici utvářenou zkušenostmi. LLM však své „úsudky“ zakládají na jazykové pravděpodobnosti.

Například při posuzování důvěryhodnosti zpráv lidé porovnávají titulky s existujícími znalostmi a spolehlivostí zdroje. LLM jednoduše analyzují kombinace slov, identifikují vzorce, které korelují s jistotou – bez ověřování faktů nebo zvažování vnějšího kontextu. To znamená, že LLM může dojít ke stejnému závěru jako člověk, ale ze zcela jiných důvodů.

Podobně v morálních dilematech se lidé spoléhají na normy, emoce a uvažování příčiny a následku („Když udělám X, stane se Y“). LLM reprodukují tento jazyk bez skutečného předkládání scénářů nebo posuzování důsledků. Napodobují formu myšlení, nikoli proces.

Problém epistémie

Tento rozpor vede k tomu, co výzkumníci nazývají „epistémie“, což je stav, ve kterém se simulované znalosti stávají nerozeznatelné od skutečných znalostí. Protože lidský úsudek je vyjádřen jazykem, výstup LLM často připomíná lidské uvažování. Ale plynulost nerovná se porozumění.

Nebezpečí není jen v tom, že se modelky někdy spletou; nedokážou rozpoznat, kdy si informace vymýšlí. Chybí jim schopnost vytvářet si přesvědčení, revidovat je na základě důkazů nebo rozlišovat pravdu od nepravdy kromě statistické pravděpodobnosti.

Co to znamená v praxi

Lidé již využívají LLM v důležitých oblastech, jako je právo, medicína a psychologie. Model může vytvořit přesvědčivou diagnózu nebo právní argument… ale tím to není přesné. Simulace není podstata.

Toto není výzva k úplnému odmítnutí LLM. Jedná se o výkonné nástroje pro navrhování, shrnutí a zkoumání nápadů. Ale pokud jde o soud, musíme předefinovat, co to znamená.

Hlavní závěr je jednoduchý: pohlížejte na LLM jako na jazykové nástroje, které vyžadují lidskou kontrolu, nikoli jako na nezávislé myslitele.

Iluze porozumění je silná, ale je důležité mít na paměti, že hladkost není vhled a výmluvnost není důkazem porozumění. Skutečný úsudek vyžaduje spojení se světem – něco, co tyto modely zásadně postrádají.