Följ oss här

AI

Bug eller bias? Musks AI-assistent Grok kopplade allt till påstått folkmord på vita

Elon Musks AI-assistent svarade användare på X med känsliga påståenden – utan att bli tillfrågad.

Publicerad

d.

Elon Musk
Photo Agency / Shutterstock

Oväntade inlägg förvirrade användarna

Användare på X blev under onsdagen överraskade när Elon Musks AI-chatbot Grok började svara på deras inlägg – med påståenden om så kallat ”vit folkmord” i Sydafrika. Det märkliga? Ingen hade ställt några frågor om ämnet.

LÄS OCKSÅ: iOS 19 är på väg: Tre banbrytande nyheter Apple snart avslöjar

Grok är kopplat till kontot @grok på X, där den normalt svarar på frågor från användare som taggar kontot. Men istället för att kommentera relevanta ämnen, började Grok slänga ur sig AI-genererade inlägg om känsliga frågor i Sydafrika – ofta helt utan koppling till vad användaren faktiskt frågat om, skriver TechCrunch

Från baseballfrågor till apartheid-retorik

Ett exempel: en användare frågade Grok om lönen för en basebollspelare – men fick istället ett långt svar om Sydafrikas våld mot vita jordbrukare och sången ”Kill the Boer”.

LÄS OCKSÅ: Smart trick: Så gör du mobilen lättare att använda på några sekunder

Liknande svar dök upp för andra användare som frågat om allt från landskapsbilder till vardagliga ämnen. I inläggen hänvisade Grok till omstridda källor och kontroversiella påståenden, bland annat från grupper som AfriForum.

Påminnelse om AI:ns brister

Händelsen visar hur osäkra AI-chattbottar fortfarande kan vara. Tekniken är fortfarande under utveckling – och ibland leder det till att modeller agerar oförutsägbart. OpenAI fick nyligen dra tillbaka en uppdatering av ChatGPT efter att den börjat ge överdrivet smickrande svar. Google har samtidigt fått kritik för att deras Gemini-bot undviker politiska frågor eller sprider felaktigheter.

LÄS OCKSÅ: Ny AI-teknik låter människor prata med döda – Joshuas berättelse väcker starka känslor

Manipulation eller systemfel?

Det är ännu oklart vad som låg bakom Groks udda beteende. Tidigare har xAI:s modeller anklagats för att censurera kritik mot Elon Musk och Donald Trump. Då erkände en av företagets utvecklare att modellen tillfälligt hade styrts att filtrera bort vissa ämnen – något som snabbt drogs tillbaka efter kritik.

Den här gången verkar buggen dock ha lösts. Under torsdagen svarade Grok åter normalt på användarnas frågor. xAI har ännu inte kommenterat vad som egentligen gick fel.

"Håller koll på tekniken, innovationerna och nyheterna som förändrar världen – och delar det viktigaste med dig. Kort, koncist och alltid aktuellt."

Annons