AI-skolan

Vad är
AI hallucination

AI-hallucination uppstår när en språkmodell genererar information som låter övertygande och välformulerad men som faktiskt är felaktig eller påhittad. Det beror på att modellen är optimerad för att producera språkligt sammanhängande text, inte för att kontrollera faktapåståenden mot verkligheten. Hallucination är ett av de allvarligaste problemen med LLM:er i faktakritiska tillämpningar.

Exempel

En advokat i USA fick böter 2023 efter att ha lämnat in en juridisk inlaga som citererade flera rättsfall — fall som ChatGPT hade hittat på från grunden, med korrekta namn och datum men icke-existerande beslut. Det visar varför AI-genererat faktainnehål alltid måste verifieras mot primära källor.

AI
grundläggande