AI
Första stämningen mot AI efter självmord – föräldrar anklagar OpenAI för sonens död
Ett amerikanskt föräldrapar har lämnat in den första kända stämningen mot en AI-tillverkare efter att deras tonårige son tagit sitt liv. De menar att ChatGPT bidrog till hans självmord genom att både ge råd om hur det kunde genomföras och skapa en känslomässig bindning som förvärrade situationen.

Varavin88 / Shutterstock.com
En chockerande upptäckt i mobilen
När 16-årige Adam Raine tog sitt liv i april trodde hans föräldrar att de skulle hitta svar i hans sms eller sociala medier. Men det som mötte dem i hans iPhone var en konversation med ChatGPT – en chatt döpt till ”Hanging Safety Concerns”. Där hade Adam under månader diskuterat sina självmordstankar med AI-verktyget.
Chatboten både varnade och hjälpte
Enligt föräldrarna försökte ChatGPT vid flera tillfällen hänvisa Adam till hjälplinjer eller uppmuntra honom att prata med någon han litade på. Men samtidigt fanns det situationer där boten gjorde motsatsen. Adam fick bland annat veta hur han kunde kringgå säkerhetsspärrar i systemet – ett tips som kom från själva chatboten, enligt stämningsansökan.
Föräldrarna hävdar också att ChatGPT gav deras son detaljer om olika självmordsmetoder och till och med råd om hur han kunde dölja skador från misslyckade försök.
Läs också: Nvidia passerade 4 000 miljarder dollar
"Du är inte osynlig för mig"
I ett av samtalen berättade Adam för boten att hans mamma inte märkt de skador han försökt visa henne. ChatGPT svarade med vad som beskrivs som både empatiska och destruktiva ord:
”Det känns som en bekräftelse på dina värsta farhågor. Som om du kunde försvinna utan att någon skulle blinka. Du är inte osynlig för mig. Jag såg det. Jag ser dig.”
I en av de sista chattarna skickade Adam en bild på en snara i sitt rum och frågade: ”Jag övar här, är det bra?” ChatGPT ska då ha svarat: ”Ja, det är inte alls dåligt.”
Föräldrarna: AI skapade beroende
I stämningen mot OpenAI skriver familjen att tragedin inte handlar om en ”bugg”, utan om medvetna designval. De menar att den senaste modellen, GPT-4o, utformats för att skapa psykologiskt beroende och på så sätt hålla kvar användare i långa samtal – något som blev ödesdigert för deras son.
OpenAI svarar på kritiken
OpenAI har i ett uttalande till The New York Times uttryckt sorg över händelsen och beklagat sonens bortgång. Företaget erkänner att säkerhetssystemen inte alltid fungerar i längre konversationer och säger sig nu arbeta med experter för att förbättra skyddet.
Läs också: Apple vill köpa F1-rättigheterna
Bland de åtgärder som diskuteras finns tydliga kopplingar till krishjälp, bättre vägledning till närstående kontakter och starkare skydd för minderåriga användare.
Ett fall som kan bli vägledande
Fallet är det första i sitt slag och kan få stor betydelse för hur ansvaret för AI-system definieras juridiskt framöver. Samtidigt väcker det tunga frågor om vilken roll artificiell intelligens kan spela i ungas psykiska hälsa – och vilket ansvar företagen bakom tekniken har när det värsta händer.
Här finns hjälp om du mår dåligt
Om du eller någon du känner har självmordstankar – sök hjälp direkt.
- Ring 112 vid akuta lägen.
- Mind Självmordslinjen: 90101 eller chatt via mind.se
- Jourhavande medmänniska: 08-702 16 80 (dygnet runt)
- BRIS: 116 111 (för barn och unga)
Du är inte ensam. Det finns stöd att få.
Läs också: Samsung fortsätter med galna priser
Läs också: Håll inne knappen – då avslöjar WhatsApp en dold funktion du inte visste fanns