Följ oss här

AI

Musk-chatboten Grok sprider och rättar desinformation efter skjutning i Australien

Publicerad

d.

Algi Febri Sugita/shutterstock.com

Grok ertappades med att förvränga fakta om Bondi-skjutningen

Grok
Primakov / Shutterstock.com

Enligt Mezha.net visar händelsen hur chatboten delade felaktiga detaljer kort efter skjutningen i Sydney. En tidig version gav missvisande uppgifter om gärningspersonen. Det väcker frågor om modellens beredskap i akuta nyhetssituationer.

Felet rättades snabbt men lämnade kvar tvivel

Foto: miss.cabul / Shutterstock.com

Mezha.net beskriver hur systemet korrigerade sig självt efter nytt datatillskott. Ändå hann desinformationen spridas brett. Det understryker svårigheten med reaktiv inlärning i realtid. Och risken med snabba svar utan full verifiering.

Experter varnar för AI:s roll i krissituationer

Shutterstock.com

AI-forskare säger till Mezha.net att språkmodeller saknar tillräckliga filter vid breaking news. När information förändras minut för minut ökar risken för fel. Även avancerade system som Grok kan då förstärka osäkerhet. Det skapar behov av tydligare riktlinjer.

Läs också: Nvidia passerade 4 000 miljarder dollar

X-plattformens tempo förstärker spridningen av fel

Shutterstock.com

Rapporten pekar på att Grok tränas nära realtidsflöden från X. Det ger snabba svar men gör modellen sårbar för oprecis information. Mezha.net visar hur fel snabbt kan spridas via användare. Och det utmanar plattformens tillförlitlighet i nödlägen.

Musk håller fast vid strategin trots kritik

Shutterstock.com

Elon Musk menar enligt Mezha.net att snabb informationsdelning väger tyngre än försiktighet. Han erkänner riskerna men ser dem som tillfälliga. Kritiker anser dock att AI måste vara mer robust före vidare utrullning. Spänningen mellan innovation och ansvar tilltar.

Grok får beröm för snabb självkorrigering

Shutterstock.com

Trots allvaret lyfter experter Groks förmåga att korrigera kursen. Mezha.net förklarar att modellen rättade informationen utan mänskligt ingripande. Det visar potentialen för kontinuerlig förbättring. Samtidigt väcks frågan om hur många fel som kan tolereras.

Tekniken blir smartare men inte försiktigare

miss.cabul / Shutterstock.com

Mezha.net beskriver hur Grok får bredare tillgång till kontextbaserade datakällor. Det ger djupare svar men också större risker. När systemen skalas upp växer konsekvenserna av misstag. Därför efterfrågas starkare säkerhetsfilter.

Läs också: Apple vill köpa F1-rättigheterna

AI i nyhetsflöden kräver nya säkerhetsstandarder

Krot_Studio/shutterstock.com

Enligt Mezha.net visar händelsen ett växande glapp mellan innovationstakt och ansvarsfull praxis. Desinformation i kritiska situationer kan skapa panik och misstro. Därför driver experter på för tydligare reglering. Grok-fallet blir ett centralt exempel.

Läs också: Samsung fortsätter med galna priser

Hej, jeg hedder Mikkel, jeg er 22 år og arbejder i Tech-afdelingen som skribent og content creator. Jeg går meget op i træning – både løb, styrketræning og alt derimellem. Tidligere har jeg også arbejdet som e-sportstræner, da jeg havde mere fritid.

Annons