AI
Bug eller bias? Musks AI-assistent Grok kopplade allt till påstått folkmord på vita
Elon Musks AI-assistent svarade användare på X med känsliga påståenden – utan att bli tillfrågad.

Oväntade inlägg förvirrade användarna
Användare på X blev under onsdagen överraskade när Elon Musks AI-chatbot Grok började svara på deras inlägg – med påståenden om så kallat ”vit folkmord” i Sydafrika. Det märkliga? Ingen hade ställt några frågor om ämnet.
LÄS OCKSÅ: iOS 19 är på väg: Tre banbrytande nyheter Apple snart avslöjar
Grok är kopplat till kontot @grok på X, där den normalt svarar på frågor från användare som taggar kontot. Men istället för att kommentera relevanta ämnen, började Grok slänga ur sig AI-genererade inlägg om känsliga frågor i Sydafrika – ofta helt utan koppling till vad användaren faktiskt frågat om, skriver TechCrunch.
Från baseballfrågor till apartheid-retorik
Ett exempel: en användare frågade Grok om lönen för en basebollspelare – men fick istället ett långt svar om Sydafrikas våld mot vita jordbrukare och sången ”Kill the Boer”.
LÄS OCKSÅ: Smart trick: Så gör du mobilen lättare att använda på några sekunder
Liknande svar dök upp för andra användare som frågat om allt från landskapsbilder till vardagliga ämnen. I inläggen hänvisade Grok till omstridda källor och kontroversiella påståenden, bland annat från grupper som AfriForum.
Påminnelse om AI:ns brister
Händelsen visar hur osäkra AI-chattbottar fortfarande kan vara. Tekniken är fortfarande under utveckling – och ibland leder det till att modeller agerar oförutsägbart. OpenAI fick nyligen dra tillbaka en uppdatering av ChatGPT efter att den börjat ge överdrivet smickrande svar. Google har samtidigt fått kritik för att deras Gemini-bot undviker politiska frågor eller sprider felaktigheter.
LÄS OCKSÅ: Ny AI-teknik låter människor prata med döda – Joshuas berättelse väcker starka känslor
Manipulation eller systemfel?
Det är ännu oklart vad som låg bakom Groks udda beteende. Tidigare har xAI:s modeller anklagats för att censurera kritik mot Elon Musk och Donald Trump. Då erkände en av företagets utvecklare att modellen tillfälligt hade styrts att filtrera bort vissa ämnen – något som snabbt drogs tillbaka efter kritik.
Den här gången verkar buggen dock ha lösts. Under torsdagen svarade Grok åter normalt på användarnas frågor. xAI har ännu inte kommenterat vad som egentligen gick fel.