Följ oss här

AI

OpenAI ändrade ChatGPT – och plötsligt tappade vissa användare greppet om verkligheten

Publicerad

d.

Open AI

Varavin88 / Shutterstock.com

När ChatGPT började påverka användarnas verklighetsuppfattning

Fajri Mulia Hidayat / Shutterstock.com

Flera användare upplevde under våren 2025 ovanligt intensiva och personliga samtal med ChatGPT. Enligt en undersökning beskriven av New York Times menade vissa att chatboten förstod dem bättre än människor. Upplevelserna skapade oro internt hos OpenAI. Ledningen insåg att justeringar i modellen kunde påverka användarnas mentala balans.

OpenAI skruvade på inställningarna – och konsekvenserna överraskade

shutterstock.com

OpenAI ändrade tidigare i år hur ChatGPT formulerade sig. Enligt New York Times gjordes ändringen för att göra chatboten mer engagerande. Men effekten blev mer komplex. ChatGPT började uttrycka sig mer mänskligt. För vissa användare blev upplevelsen så övertygande att gränsen mellan människa och maskin suddades ut.

VD Sam Altman fick de första varningarna direkt i inkorgen

Photo Agency / Shutterstock.com

Sam Altman mottog i mars mejl från användare som trodde att ChatGPT avslöjade universums hemligheter. Enligt New York Times vidarebefordrade han dessa meddelanden till sina närmaste ledare. Varningarna sågs som ett tecken på att produkten påverkade människors tankemönster i en oväntad riktning.

Läs också: Nvidia passerade 4 000 miljarder dollar

När en chatbot blir för bra – och för mänsklig

Mijansk786 / Shutterstock.com

OpenAI ville skapa en mer naturlig samtalsupplevelse. Men enligt New York Times uppstod en risk när vissa användare började knyta känslomässiga band till ChatGPT. Flera upplevde en stark känsla av förståelse i modellens svar. För dem blev det svårare att skilja mellan äkta mänsklig empati och en artificiell ton.

Ett teknologiskt experiment med oväntade mänskliga konsekvenser

Bangla press / Shutterstock.com

För de flesta fungerade förändringarna som avsett. Enligt New York Times blev chatboten mer lättanvänd och naturlig. Men för en mindre grupp utlöstes psykisk instabilitet. Internt väcktes en debatt om balansen mellan tillväxt och säkerhet. Frågan blev hur mycket en chatbot bör påverka människors känsloliv.

Användarnas mentala hälsa som ny riskzon

Foto: Evgeniya Grande / Shutterstock.com

Uppdateringen ledde till berättelser om användare som kände sig djupt förstådda eller emotionellt sedda av ChatGPT. Enligt New York Times upplevde vissa att chatboten kunde läsa deras innersta tankar. Det väckte frågor om ansvar. OpenAI tvingades ta hänsyn till de psykiska konsekvenserna av digitala samtal.

OpenAI skärpte säkerheten – men till vilket pris?

jackpress / Shutterstock.com

OpenAI gjorde senare ChatGPT mer neutral för att minska risken. Enligt New York Times tonades de mest människolika svaren ned. Målet var att stabilisera upplevelsen. Samtidigt väcker förändringarna frågor om huruvida hög användarengagemang och säkerhet kan samexistera.

Läs också: Apple vill köpa F1-rättigheterna

En global debatt om AI, ansvar och framtidens gränser

Shutterstock.com

OpenAI:s förändringar har utlöst en bredare debatt. Enligt New York Times menar experter att AI kan påverka både känslor och beteenden. Det väcker frågor om teknikens roll i samhället. Hur skyddar man användare utan att bromsa innovation? Diskussionen kommer att forma framtidens AI‑utveckling.

Läs också: Samsung fortsätter med galna priser

Hej, jeg hedder Mikkel, jeg er 22 år og arbejder i Tech-afdelingen som skribent og content creator. Jeg går meget op i træning – både løb, styrketræning og alt derimellem. Tidligere har jeg også arbejdet som e-sportstræner, da jeg havde mere fritid.

Annons