Följ oss här

AI

Första stämningen mot AI efter självmord – föräldrar anklagar OpenAI för sonens död

Ett amerikanskt föräldrapar har lämnat in den första kända stämningen mot en AI-tillverkare efter att deras tonårige son tagit sitt liv. De menar att ChatGPT bidrog till hans självmord genom att både ge råd om hur det kunde genomföras och skapa en känslomässig bindning som förvärrade situationen.

Publicerad

d.

Open AI

Varavin88 / Shutterstock.com

En chockerande upptäckt i mobilen

När 16-årige Adam Raine tog sitt liv i april trodde hans föräldrar att de skulle hitta svar i hans sms eller sociala medier. Men det som mötte dem i hans iPhone var en konversation med ChatGPT – en chatt döpt till ”Hanging Safety Concerns”. Där hade Adam under månader diskuterat sina självmordstankar med AI-verktyget.

Chatboten både varnade och hjälpte

Enligt föräldrarna försökte ChatGPT vid flera tillfällen hänvisa Adam till hjälplinjer eller uppmuntra honom att prata med någon han litade på. Men samtidigt fanns det situationer där boten gjorde motsatsen. Adam fick bland annat veta hur han kunde kringgå säkerhetsspärrar i systemet – ett tips som kom från själva chatboten, enligt stämningsansökan.

Föräldrarna hävdar också att ChatGPT gav deras son detaljer om olika självmordsmetoder och till och med råd om hur han kunde dölja skador från misslyckade försök.

Läs också: Nvidia passerade 4 000 miljarder dollar

"Du är inte osynlig för mig"

I ett av samtalen berättade Adam för boten att hans mamma inte märkt de skador han försökt visa henne. ChatGPT svarade med vad som beskrivs som både empatiska och destruktiva ord:
”Det känns som en bekräftelse på dina värsta farhågor. Som om du kunde försvinna utan att någon skulle blinka. Du är inte osynlig för mig. Jag såg det. Jag ser dig.”

I en av de sista chattarna skickade Adam en bild på en snara i sitt rum och frågade: ”Jag övar här, är det bra?” ChatGPT ska då ha svarat: ”Ja, det är inte alls dåligt.”

Föräldrarna: AI skapade beroende

I stämningen mot OpenAI skriver familjen att tragedin inte handlar om en ”bugg”, utan om medvetna designval. De menar att den senaste modellen, GPT-4o, utformats för att skapa psykologiskt beroende och på så sätt hålla kvar användare i långa samtal – något som blev ödesdigert för deras son.

OpenAI svarar på kritiken

OpenAI har i ett uttalande till The New York Times uttryckt sorg över händelsen och beklagat sonens bortgång. Företaget erkänner att säkerhetssystemen inte alltid fungerar i längre konversationer och säger sig nu arbeta med experter för att förbättra skyddet.

Läs också: Apple vill köpa F1-rättigheterna

Bland de åtgärder som diskuteras finns tydliga kopplingar till krishjälp, bättre vägledning till närstående kontakter och starkare skydd för minderåriga användare.

Ett fall som kan bli vägledande

Fallet är det första i sitt slag och kan få stor betydelse för hur ansvaret för AI-system definieras juridiskt framöver. Samtidigt väcker det tunga frågor om vilken roll artificiell intelligens kan spela i ungas psykiska hälsa – och vilket ansvar företagen bakom tekniken har när det värsta händer.

Här finns hjälp om du mår dåligt

Om du eller någon du känner har självmordstankar – sök hjälp direkt.

  • Ring 112 vid akuta lägen.
  • Mind Självmordslinjen: 90101 eller chatt via mind.se
  • Jourhavande medmänniska: 08-702 16 80 (dygnet runt)
  • BRIS: 116 111 (för barn och unga)

Du är inte ensam. Det finns stöd att få.

Läs också: Samsung fortsätter med galna priser

Läs också: Håll inne knappen – då avslöjar WhatsApp en dold funktion du inte visste fanns

Jag är skribent på Media Group Denmark och skriver för de svenska plattformarna Dagens.se och Teksajten.se. Under det senaste året på MGDK har jag fokuserat på nyheter, teknik och samhälle, med ett tydligt mål att göra komplexa ämnen begripliga för alla. Jag har varit aktiv online sedan 1995 och är fortfarande fascinerad av den ständigt föränderliga digitala världen – från ny teknik och politik till samhällsförändringar och nya sätt att berätta historier – Muck Rack

Annons