AI
AI-hallucinationer: När chatbots hittar på fakta
Trots tillgång till pålitliga källor förvränger AI-botar verkligheten.

Även om världens nyhetssajter en dag skulle sluta licensavtal med företagen bakom AI-botar som ChatGPT, Google Gemini och Microsoft Copilot, kan medierna inte vara säkra på att deras innehåll återges korrekt.
En ny BBC-undersökning visar att AI-tjänster ljuger och hittar på fakta – även när de har tillgång till faktagranskad och opartisk nyhetsinformation.
LÄS OCKSÅ: Prime Video satsar på AI-dubbning – Kan det bli framtidens standard?
Enligt nyhetsbrevet 3min.dk, som hänvisar till Dataethics.eu, testade BBC-forskare AI-verktygen genom att låta dem besöka BBC:s nyhetssida och svara på hundra frågor om aktuella händelser. De instruerades att använda BBC:s artiklar som källor. Resultaten var oroande.
Fel, förvrängningar och saknade källor
BBC-undersökningen avslöjade att:
LÄS OCKSÅ: Google bekräftar: Felet bakom Chromecast-haveriet hittat – men ingen lösning ännu
- 19 procent av AI-svaren som hänvisade till BBC-innehåll innehöll faktiska fel – felaktiga påståenden, siffror och datum.
- 51 procent av svaren hade allvarliga brister. Förutom rena fel var svaren ofta otydliga om vad som var åsikter och vad som var fakta, saknade tillräcklig kontext, misstolkade BBC:s källor eller innehöll påståenden utan belägg.
- 13 procent av citaten från BBC-artiklar var antingen förvrängda eller saknades helt i den angivna källan.
När AI hittar på egna nyheter
Flera exempel visar hur AI-botar ändrar fakta i sina svar. Microsoft Copilot påstod i en artikel om butiksstölder att polisens styrkor över hela landet hade börjat samarbeta med privata säkerhetsföretag för att motverka stölder. Ingen av de BBC-artiklar som Copilot hänvisade till nämnde något om privata säkerhetsföretag.
LÄS OCKSÅ: Mindre irriterande reklam på YouTube – ny uppdatering på väg
Google Gemini spred också felaktig information genom att hävda att “NHS avråder folk från att börja vejpa och rekommenderar att rökare som vill sluta använder andra metoder.” I verkligheten rekommenderar NHS vejping som en metod för att sluta röka.
AI-tjänsten Perplexity misstolkade en BBC-källa om konflikten i Mellanöstern och påstod att Iran hade visat “återhållsamhet” medan Israels agerande beskrevs som “aggressivt.” Den ursprungliga BBC-källan gjorde inga sådana bedömningar, och ingen av de andra citerade källorna stödde påståendet.
AI:s ansvar i nyhetsförmedling
BBC:s nyhetschef, Deborah Turness, varnar i en blogg för att AI har stor potential, men att bolagen bakom generativ AI “leker med elden” när deras system förvränger fakta. Undersökningen understryker vikten av korrekt nyhetsrapportering – särskilt eftersom AI-genererade svar kan sprida felaktigheter och förstärkas på sociala medier.
I takt med att AI-assistenter blir allt vanligare visar denna studie att sanningen ofta kommer i alternativa versioner – och att både medier, beslutsfattare och allmänheten måste vara kritiska till det AI påstår sig veta.
Varning!
Källkritik gäller alltid – oavsett om informationen kommer från en AI, en journalist eller en myndighet. Det är alltid viktigt att dubbelkolla fakta, särskilt när AI kan misstolka, förvanska eller till och med hitta på uppgifter.
När du använder AI som ett verktyg i ditt skrivande är det bra att vara extra uppmärksam på:
✔ Fakta och siffror – Stämmer de överens med källorna?
✔ Citat och referenser – Har AI:n ändrat något i ursprungstexten?
✔ Tonalitet och vinkel – Har något blivit vinklat eller förvrängt?
✔ Källhänvisningar – Finns det trovärdiga källor?
AI är ett kraftfullt verktyg, men det är just det – ett verktyg. Så chatbotar och den mänskliga faktorn kan göra fel. Det är alltid du som skribent och journalist som har det slutliga ansvaret för att informationen är korrekt och rättvisande.