Wat is een Hallucinatie?
Wanneer AI-modellen incorrect of verzonnen informatie genereren die lijkt op waarheid.
Definitie
Hallucinatie in AI verwijst naar het verschijnsel waarbij AI-modellen incorrect, verzonnen of misleidende informatie genereren die wordt gepresenteerd alsof het waar is.
Doel
Het begrijpen van hallucinaties helpt gebruikers en ontwikkelaars om AI-output kritisch te evalueren en te controleren voordat ze erop vertrouwen.
Functie
Hallucinaties ontstaan wanneer AI-modellen patronen "vullen" met plausibel klinkende maar incorrecte informatie, vooral bij onderwerpen waar training-data beperkt is.
Voorbeeld
Een AI die beweert dat een beroemde persoon een boek heeft geschreven dat niet bestaat, of die fictieve historische gebeurtenissen presenteert als feiten.
Gerelateerd
Wil je meer weten?
Als je meer wilt weten over Hallucinatie, neem contact met me op via X. Ik deel graag ideeën, beantwoord vragen en bespreek nieuwsgierigheden over deze onderwerpen, dus aarzel niet om langs te komen. Tot snel!
Wat is een Large Language Model (LLM)?
Een Large Language Model (LLM) is een zeer groot AI-model dat is getraind o...
Wat is een Agent?
Een Agent is een autonoom AI-systeem dat in staat is om taken uit te voeren...
Wat is Few-Shot Learning?
Few-Shot Learning is een AI-techniek waarbij modellen nieuwe taken kunnen l...