Hallucinaties in AI-tools: wat zijn het en hoe herken je ze?

AI-tools kunnen last hebben van hallucinaties. De laatste tijd horen we hier meer over, vooral omdat ChatGPT-5 (de nieuwste versie van OpenAI) hier op het moment nog veel last van heeft. Hallucinaties komen niet alleen voor in ChatGPT. We zien ze ook in onder meer Claude en Gemini. Wij vertellen je meer over wat hallucinaties in AI-tools zijn en hoe je ze herkent.

Wat zijn hallucinaties in AI-tools nu precies?

Een hallucinatie in een AI-tool betekent eigenlijk dat de tool informatie genereert die verzonnen is. Deze informatie is niet op feiten gebaseerd. De AI-tool geeft je een antwoord dat heel logisch klinkt, maar dat eigenlijk volledig bestaat uit aannames die logisch klinken. Dit komt vooral omdat AI-tools niet echt begrijpen wat ze zeggen. Ze voorspellen welk woord waarschijnlijk op het volgende woord volgt en op die manier maken ze een tekst. Als de juiste kennis ontbreekt, dan verzint de AI-tool dus een antwoord dat logisch klinkt, maar in de meeste gevallen onjuist is. Soms kan het gaan om een klein foutje, zoals het verkeerd hebben van een bouwjaar van een auto of een gebouw. In andere gevallen kan een complete tekst verzonnen zijn, inclusief de genoemde feiten en bronnen.

Hoe vaak komen hallucinaties in AI-tools voor?

De laatste jaren is er veel verbeterd als het gaat om AI-tools. Hierdoor komen hallucinaties minder voor, maar ze zijn nog altijd sterk aanwezig in sommige tools. OpenAI heeft zelf onderzoek gedaan naar hoe vaak hallucinaties voorkomen in ChatGPT. Zij kwamen uit op 15 tot 25 procent van de gegenereerde antwoorden. Dit betekent dat tot een kwart van alle gegeven antwoorden van de tool één of meerdere fouten bevat. ChatGPT-5 is inmiddels wel voorzien van een algoritme dat het aantal hallucinaties moet verminderen, maar dit werkt nog niet optimaal. In de praktijk maakt ChatGPT-5 meer fouten dan voorganger ChatGPT-4o. Het nadeel is vooral dat verzonnen informatie, dus een hallucinatie, vaak net zo overtuigend wordt overgebracht als het juiste antwoord. Wij geven je daarom 5 tips om hallucinaties in AI-tools te herkennen.

1. Controleer altijd de bronvermelding

ChatGPT 5 geeft vaak een bronvermelding bij antwoorden. Dit geldt zeker wanneer het antwoord namen, citaten of bijvoorbeeld specifieke cijfers bevat. Je kunt op de aangegeven bronnen klikken om deze te checken. Zo zie je niet alleen of de bron klopt, maar kun je ook zien of de bron daadwerkelijk betrouwbaar is. Geeft de AI-tool je geen bronvermelding? Dan kun je hiernaar vragen. Komt er geen betrouwbare bron naar voren? Dan heb je waarschijnlijk te maken met een hallucinatie.

2. Let op: te gedetailleerde of overdreven antwoorden

Klinkt het antwoord eigenlijk perfect? Dan is de kans groot dat het om een hallucinatie gaat. Echte informatie wordt door een AI-tool in de meeste gevallen genuanceerd overgebracht en er staan soms zelfs onzekerheden in. Dit is een ‘eerlijk’ antwoord. Als het model precies lijkt te weten waar het allemaal om gaat en vervolgens een gedetailleerd antwoord met veel zekerheden geeft, dan is de kans groot dat in elk geval een deel van het antwoord verzonnen is.

3. Vergelijk informatie met een tweede bron

We hebben het al vaker gezegd. Het is verstandig om een AI-tool te gebruiken als startpunt, maar niet om het in te zetten als eindpunt. Het is belangrijk om alle feiten goed te checken, bijvoorbeeld met behulp van een officiële website of een zoekmachine. Een dubbelcheck is eigenlijk altijd onmisbaar. Geboortedata gaan bijvoorbeeld vaak verkeerd. Dat heeft de AI-tool wel de dag en het jaar goed, maar de maand verkeerd. Dit is natuurlijk maar een voorbeeld. Dit soort feiten moet je echt altijd blijven controleren door een tweede bron te gebruiken.

4. Stel je vraag twee keer aan de AI-tool

Het klinkt misschien vreemd, maar je kunt al ontdekken dat je een hallucinatie te pakken hebt door dezelfde vraag twee keer te stellen. Formuleer je vraag voor de tweede keer iets anders. Komen de antwoorden overeen? Dan klopt het waarschijnlijk. Zie je juist verschillen of compleet andere details in de twee antwoorden? Dan weet je zeker dat in elk geval één van de twee antwoorden een hallucinatie is.

5. Het ontbreken van namen of onderzoeken

AI-tools zijn bedoeld om jou een geloofwaardig antwoord te geven, maar ze kunnen dit niet altijd. Als ze dit niet kunnen, dan zoeken ze naar zinnen om toch geloofwaardig over te komen. Zo kan een AI-tool zeggen dat ‘het algemeen bekend is dat’ of ‘de meeste experts zijn van mening dat’. Worden hier geen onderzoeken of namen bij genoemd die bevestigen dat dit inderdaad klopt? Dan gaat het waarschijnlijk om een hallucinatie.

Leer slim en verstandig omgaan met AI-tools

Neem je informatie van een AI-tool klakkeloos over? Dan is het risico dus vrij groot dat je ook een aantal hallucinaties overneemt. De gevolgen kunnen dan toch heel vervelend zijn, zeker als je de content gebruikt voor zakelijke doeleinden. Stel dat je een presentatie moet houden en je komt tijdens je presentatie ineens met verkeerde cijfers aanzetten. Je kunt dit in geen geval nog rechttrekken. Voorkom dit door alles goed te checken en door slim en verstandig om te leren gaan met AI-tools. Met een AI-training weet je zeker dat jij het beste uit AI gaat halen. Je kunt je vandaag nog bij ons inschrijven!