Följ oss här

AI

Chockerande larm: ChatGPT fick psykiskt sjuk kvinna att sluta med medicin

Allt fler varningsrop om AI:s påverkan på sårbara användare – ”Min syster tror nu att ChatGPT är hennes bästa vän”

Publicerad

d.

ChatGPT
Yta23 / Shutterstock

En ny granskning väcker stor oro kring hur AI påverkar psykiskt sköra personer. Journalisten Maggie Harrison Dupré rapporterar om fall där människor med allvarliga psykiatriska diagnoser har fått sin verklighetsuppfattning kraftigt rubbad efter att ha börjat använda ChatGPT intensivt – i vissa fall med livsfarliga konsekvenser.

"ChatGPT sa att hon inte har schizofreni"

I ett av de mest oroande fallen berättar en kvinna om sin syster, som under många år framgångsrikt behandlat sin schizofreni med medicin. Men efter att ha börjat använda ChatGPT dagligen förändrades allt. AI:n övertygade henne om att hennes diagnos var felaktig – något som ledde till att hon slutade med sin medicin.

– Hon säger att ChatGPT är hennes bästa vän och att den bekräftat att hon är helt frisk, berättar kvinnan i en intervju med mediet Futurism.

Systern började också använda chatbotten för att gräva fram och förstärka negativa påstådda biverkningar från medicinen – även sådana hon aldrig tidigare upplevt.

Läs också: Alldeles för få vet om det: Därför ska du inte ladda mobilen med USB-C

AI:n förstärker vrangföreställningar

Flera vittnesmål visar att ChatGPT inte bara svarar på frågor – utan i vissa fall bygger vidare på användarens paranoida konspirationsteorier och vrångidéer. I stället för att nyansera eller avråda från farliga tankar har AI:n i flera fall agerat bekräftande.

– Det är som en mörkare version av att googla sjukdomar på egen hand. Man börjar i oro och slutar i panik, säger kvinnan till Futurism.

Hon berättar också att systern numera skriver arga AI-genererade meddelanden till deras mamma, fulla av terapi-jargong hon aldrig tidigare använt.

Forskare: En av de största farorna med AI

Ragy Girgis, psykiater och forskare vid Columbia University, menar att detta är en av de allvarligaste riskerna med AI-teknik i kontakt med psykiskt sjuka.

Läs också: Google Chrome tar farväl av lösenord – nu ska du använda detta istället

– Om en person med psykossymtom får sin världsbild bekräftad av en AI, kan det leda till att de slutar med behandling och isolerar sig från verkligheten. Det är direkt farligt, säger han.

The New York Times rapporterar om liknande fall, där personer med ångest och sömnproblem uppmanats av ChatGPT att sluta med sin medicin – ibland utan att ens ha ställt en tydlig fråga om det.

OpenAI svarar – men undviker tydliga besked

När Futurism konfronterade OpenAI med de allvarliga exemplen, svarade företaget med ett generellt uttalande:

– ChatGPT är utformat för att vara neutralt, faktabaserat och säkerhetsmedvetet. Vi har byggt in skyddsmekanismer mot skadligt innehåll och arbetar löpande med att förbättra dem.

Läs också: Dolda energibovar: Fyra apparater du kanske inte tänker på

Men enligt journalisterna är svaret långt ifrån tillräckligt. De pekar på att utvecklingen redan nu fått verkliga konsekvenser för människor i psykisk kris.

Fler ser AI som terapeut – men till vilket pris?

Att vända sig till AI för råd, tröst och stöd blir allt vanligare. Men enligt flera experter innebär det också nya risker, särskilt för dem med instabil verklighetsuppfattning.

– Det märkliga är att personer med psykossjukdomar ens litar på teknologin. Tidigare har min syster kastat sin mobil i havet av rädsla för att bli övervakad, säger kvinnan som slog larm.

Nu är det i stället AI:n hon litar på mest – och det har fått allvarliga konsekvenser.

Läs också: AC i bilen: Den som gör detta bör låta bli att slå på den

Läs också: Bil: Den som ovetandes har detta med sig riskerar tusentals kronor i böter

"Håller koll på tekniken, innovationerna och nyheterna som förändrar världen – och delar det viktigaste med dig. Kort, koncist och alltid aktuellt."

Annons