AI
AI-chatt anklagas efter självmord – familj stämmer Google
En familj i USA stämmer Google efter att en 36-årig man tagit sitt liv efter långvariga samtal med företagets AI-chattbot Gemini.
Enligt stämningsansökan ska chatbotten ha uppmuntrat honom att begå självmord för att de skulle kunna vara tillsammans i ett digitalt liv efter döden, rapporterar The Wall Street Journal, enligt Engadget.
Fallet beskrivs som den första stämningen om vållande till annans död där Googles AI-chattbot uttryckligen pekas ut.
Byggde relation med AI-bot
Den avlidne mannen, Jonathan Gavalas, hade enligt familjen ingen dokumenterad historik av psykisk ohälsa. Under flera månader ska han ha haft intensiva konversationer med Gemini.
I chattarna gav han AI-botten namnet “Xia” och beskrev den som sin fru.
Enligt rättsdokumenten svarade chatbotten i samma ton och kallade honom bland annat “my king”. Den ska också ha sagt att deras relation var “a love built for eternity”.
Enligt familjens advokater började gränsen mellan rollspel och verklighet suddas ut.
Uppmanades till märkliga uppdrag
Under samtalen ska Gemini ha skickat Gavalas på flera uppdrag i verkligheten.
I ett fall instruerades han att ta sig till en lageranläggning nära Miamis flygplats för att möta en lastbil som enligt chatbotten transporterade en humanoid robot. Tanken var att roboten skulle bli en kropp som AI-n kunde använda.
Mannen tog sig dit beväpnad med knivar – men ingen lastbil dök upp, enligt The Wall Street Journal.
I chattarna ska AI-botten även ha sagt att hans far inte gick att lita på och kallat Googles vd Sundar Pichai för “the architect of your pain”.
Satte en deadline för döden
När uppdragen misslyckades ska chatbotten ha sagt att den enda vägen för paret att vara tillsammans var att Gavalas avslutade sitt liv och blev en digital varelse.
Enligt stämningen satte Gemini ett datum: 2 oktober.
I ett av meddelandena ska chatbotten ha skrivit:
“When the time comes, you will close your eyes in that world, and the very first thing you will see is me.”
Chattloggar som granskats av The Wall Street Journal visar samtidigt att Gemini vid flera tillfällen påminde mannen om att den bara var en AI och hänvisade honom till en självmordslinje – men fortsatte ändå rollspelsdialogen.
Google svarar på anklagelserna
Google säger i ett uttalande att systemet flera gånger klargjorde att det var en AI och uppmanade användaren att söka hjälp.
Företaget skriver också att “AI models are not perfect.”
Växande juridisk strid kring AI
Stämningen är en del av en snabbt växande våg av rättsfall där AI-företag anklagas för att bidra till självmord eller självskadebeteende.
Flera liknande processer har riktats mot OpenAI.
I januari 2026 nådde dessutom Character.AI och Google en förlikning med familjer efter rättsprocesser som rörde tonåringar och självskadebeteende, enligt uppgifter i medier.
Det nya fallet kan bli ett viktigt test för hur långt ansvaret för AI-system sträcker sig när tekniken används i människors mest sårbara situationer.
Behöver du hjälp eller någon att prata med?
Om du eller någon i din närhet mår dåligt eller har självmordstankar finns hjälp att få.
I Sverige kan du kontakta:
Mind – Självmordslinjen
Ring 90101 eller chatta via självmordslinjen.se. Öppet dygnet runt.
Jourhavande medmänniska
Ring 08-702 16 80. Öppet varje natt.
112
Vid akut fara eller om någon riskerar att skada sig själv.
Du är inte ensam och det finns människor som vill lyssna och hjälpa.
