Följ oss här

AI

Över en miljon pratar med ChatGPT om självmord varje vecka

OpenAI har avslöjat att ChatGPT varje vecka används av över en miljon människor som uttrycker självmordstankar eller pratar om att ta sitt liv. Det visar ny data som belyser hur AI:n allt oftare blir en samtalspartner i människors psykiska kriser.

Publicerad

d.

Ledsen, barn mobil

David Pereiras / Shutterstock

OpenAI har avslöjat att ChatGPT varje vecka används av över en miljon människor som uttrycker självmordstankar eller pratar om att ta sitt liv. Det visar ny data som belyser hur AI:n allt oftare blir en samtalspartner i människors psykiska kriser.

En ny sorts samtalspartner

shutterstock.com

TechCrunch rapporterar att 0,15 procent av ChatGPT:s 800 miljoner veckovisa användare skriver meddelanden som innehåller tecken på självmordsplaner eller -avsikter. Det kan låta som en liten siffra – men innebär alltså mer än en miljon människor varje vecka.

Stark emotionell koppling till AI

Foto: Varavin88 / Shutterstock.com

OpenAI uppger också att en liknande andel användare visar tecken på stark emotionell anknytning till ChatGPT. Vissa verkar till och med utveckla känslor av beroende eller att AI:n är deras närmaste förtrogna.

Läs också: Nvidia passerade 4 000 miljarder dollar

Hundratusentals i psykisk kris

shutterstock.com

Bland användarna märks även hundratusentals fall där samtalen innehåller tecken på psykos eller mani. OpenAI betonar att dessa situationer är ”extremt sällsynta”, men erkänner att de ändå omfattar ett stort antal individer globalt.

OpenAI:s nya åtgärder

Shutterstock.com

Siffrorna offentliggjordes som en del av ett större initiativ för att förbättra hur ChatGPT hanterar psykisk ohälsa. Bolaget arbetar med att utveckla skyddsmekanismer, resurser och bättre hänvisningar till professionell hjälp för användare i kris.

AI:n som spegel av samhället

Mobil
Yarrrrrbright / Shutterstock

OpenAI:s data visar hur djupt integrerad tekniken har blivit i människors liv – och hur AI på gott och ont speglar våra känslor, behov och ensamhet. Frågan växer nu: ska en maskin kunna vara vår terapeut, eller är det just där gränsen måste dras?

Etiska frågor på allvar

shutterstock.com

Forskare varnar för att AI-baserade samtal kan skapa falsk trygghet. Om användare tror att ChatGPT kan ersätta en människa i kris, riskerar de att stå utan riktig hjälp. Samtidigt kan AI:n vara ett första steg mot att våga prata.

Läs också: Apple vill köpa F1-rättigheterna

Här finns hjälp att få

Foto: fizkes / Shutterstock.com

Om du mår dåligt eller har självmordstankar – prata med någon.
Mind Självmordslinjen: 90101 (chatt på mind.se)
1177 Vårdguiden: rådgivning och stöd dygnet runt
Suicide Zero: suicidezero.se – råd, stöd och berättelser som kan ge hopp

Läs också: Samsung fortsätter med galna priser

Jag är skribent på Media Group Denmark och skriver för de svenska plattformarna Dagens.se och Teksajten.se. Under det senaste året på MGDK har jag fokuserat på nyheter, teknik och samhälle, med ett tydligt mål att göra komplexa ämnen begripliga för alla. Jag har varit aktiv online sedan 1995 och är fortfarande fascinerad av den ständigt föränderliga digitala världen – från ny teknik och politik till samhällsförändringar och nya sätt att berätta historier – Muck Rack

Annons