Grote taalmodellen (LLM’s) zoals ChatGPT veranderen de manier waarop we met informatie omgaan, maar hun kernfunctie verschilt dramatisch van die van de menselijke intelligentie. Hoewel deze hulpmiddelen op overtuigende wijze begrip kunnen simuleren, missen ze de fundamentele basis in de praktijkervaring die ten grondslag ligt aan het menselijk oordeel. Dit is niet alleen maar een kwestie van nauwkeurigheid; het gaat om de aard van de manier waarop deze systemen informatie verwerken, en waarom het verwarren van dat proces met oprecht denken zeer problematisch kan zijn.
De kloof tussen vloeiendheid en kennis
Overweeg een arts. Jarenlange opleiding, anatomiestudies en directe patiëntervaring vormen de basis van hun expertise. Stel je nu een arts voor die slechts miljoenen patiëntenrapporten heeft gelezen, maar nog nooit een lichaam heeft aangeraakt. Ze zouden nog steeds een overtuigende, grammaticaal correcte diagnose kunnen stellen… maar die zou geworteld zijn in patronen in de data, en niet in feitelijk begrip. Dit is precies hoe LLM’s werken.
Deze modellen blinken uit in het identificeren van correlaties tussen woorden en concepten, maar hebben geen toegang tot de wereld die deze woorden beschrijven. Ze kunnen tekst genereren die klinkt als redeneren, maar het is een patroonvoltooiing en geen overleg.
Hoe AI en mensen verschillen
Recent onderzoek bevestigt dit verschil. Wetenschappers vergeleken de reacties van mensen en AI met tests die waren ontworpen om het oordeel te beoordelen. Mensen vertrouwen op voorkennis, contextueel bewustzijn en zelfs onderbuikgevoelens gevormd door ervaring. LLM’s baseren hun “oordelen” echter op taalkundige waarschijnlijkheden.
Bij het beoordelen van de geloofwaardigheid van nieuws vergelijken mensen bijvoorbeeld de krantenkoppen met bestaande kennis en de betrouwbaarheid van bronnen. LLM’s analyseren eenvoudigweg woordcombinaties en identificeren patronen die verband houden met geloofwaardigheid, zonder feiten te verifiëren of externe context in aanmerking te nemen. Dit betekent dat een LLM tot dezelfde conclusie kan komen als een mens, maar om geheel andere redenen.
Op dezelfde manier maken mensen bij morele dilemma’s gebruik van normen, emoties en causale redeneringen (“Als ik X doe, zal Y gebeuren”). LLM’s reproduceren deze taal zonder zich daadwerkelijk scenario’s voor te stellen of de gevolgen af te wegen. Ze bootsen de vorm van overleg na, niet het proces.
Het probleem van epistemie
Deze ontkoppeling leidt tot wat onderzoekers ‘epistemia’ noemen: een toestand waarin gesimuleerde kennis niet meer te onderscheiden is van feitelijke kennis. Omdat het menselijk oordeel via taal wordt uitgedrukt, lijken de resultaten van LLM vaak op menselijke redeneringen. Maar vloeiendheid staat niet gelijk aan begrip.
Het gevaar is niet alleen dat modellen soms ongelijk hebben; het is dat ze niet kunnen herkennen wanneer ze informatie verzinnen. Ze missen het vermogen om overtuigingen te vormen, deze te herzien op basis van bewijs, of waarheid van onwaarheid te onderscheiden, behalve op basis van statistische waarschijnlijkheid.
Wat dit in de praktijk betekent
Mensen gebruiken al LLM’s op gebieden waar veel op het spel staat, zoals rechten, geneeskunde en psychologie. Een model kan een overtuigende diagnose of juridisch argument genereren… maar dat maakt het nog niet accuraat. De simulatie is niet de inhoud.
Dit is geen oproep om LLM’s volledig af te wijzen. Het zijn krachtige hulpmiddelen voor het opstellen, samenvatten en verkennen van ideeën. Maar als het op oordelen aankomt, moeten we opnieuw definiëren wat dat betekent.
De belangrijkste conclusie is simpel: behandel LLM’s als taalkundige instrumenten die menselijk toezicht vereisen, en niet als onafhankelijke denkers.
De illusie van begrip is krachtig, maar het is van cruciaal belang om te onthouden dat gladheid geen inzicht is en welsprekendheid geen bewijs van begrip. Echt oordeel vereist een verbinding met de wereld – iets wat deze modellen fundamenteel ontberen.
