AI
Över en miljon pratar med ChatGPT om självmord varje vecka
OpenAI har avslöjat att ChatGPT varje vecka används av över en miljon människor som uttrycker självmordstankar eller pratar om att ta sitt liv. Det visar ny data som belyser hur AI:n allt oftare blir en samtalspartner i människors psykiska kriser.

David Pereiras / Shutterstock
OpenAI har avslöjat att ChatGPT varje vecka används av över en miljon människor som uttrycker självmordstankar eller pratar om att ta sitt liv. Det visar ny data som belyser hur AI:n allt oftare blir en samtalspartner i människors psykiska kriser.
En ny sorts samtalspartner

TechCrunch rapporterar att 0,15 procent av ChatGPT:s 800 miljoner veckovisa användare skriver meddelanden som innehåller tecken på självmordsplaner eller -avsikter. Det kan låta som en liten siffra – men innebär alltså mer än en miljon människor varje vecka.
Stark emotionell koppling till AI

OpenAI uppger också att en liknande andel användare visar tecken på stark emotionell anknytning till ChatGPT. Vissa verkar till och med utveckla känslor av beroende eller att AI:n är deras närmaste förtrogna.
Läs också: Nvidia passerade 4 000 miljarder dollar
Hundratusentals i psykisk kris

Bland användarna märks även hundratusentals fall där samtalen innehåller tecken på psykos eller mani. OpenAI betonar att dessa situationer är ”extremt sällsynta”, men erkänner att de ändå omfattar ett stort antal individer globalt.
OpenAI:s nya åtgärder

Siffrorna offentliggjordes som en del av ett större initiativ för att förbättra hur ChatGPT hanterar psykisk ohälsa. Bolaget arbetar med att utveckla skyddsmekanismer, resurser och bättre hänvisningar till professionell hjälp för användare i kris.
AI:n som spegel av samhället

OpenAI:s data visar hur djupt integrerad tekniken har blivit i människors liv – och hur AI på gott och ont speglar våra känslor, behov och ensamhet. Frågan växer nu: ska en maskin kunna vara vår terapeut, eller är det just där gränsen måste dras?
Etiska frågor på allvar

Forskare varnar för att AI-baserade samtal kan skapa falsk trygghet. Om användare tror att ChatGPT kan ersätta en människa i kris, riskerar de att stå utan riktig hjälp. Samtidigt kan AI:n vara ett första steg mot att våga prata.
Läs också: Apple vill köpa F1-rättigheterna
Här finns hjälp att få

Om du mår dåligt eller har självmordstankar – prata med någon.
Mind Självmordslinjen: 90101 (chatt på mind.se)
1177 Vårdguiden: rådgivning och stöd dygnet runt
Suicide Zero: suicidezero.se – råd, stöd och berättelser som kan ge hopp
Läs också: Samsung fortsätter med galna priser
