AI
Hemligheten bakom ChatGPT – så fungerar AI på riktigt
Vad händer egentligen bakom kulisserna när du skriver med en AI? För bara några år sedan var artificiell intelligens mest förknippat med science fiction.

Shutterstock
Idag använder omkring en miljard människor chattbottar som ChatGPT och DeepSeek, samtidigt som företag satsar miljarder på nya datacenter och toppforskare. AI har på kort tid blivit en samhällsfråga – från diskussioner om upphovsrätt till oro för risker och skolans utmaningar med elevernas AI-användning.
Men hur fungerar en språkmodell egentligen? Det är långt ifrån magi – i grunden handlar det om matematik, statistik och enorma datamängder, skriver PC för alla.
Maskininlärning i gigantisk skala
ChatGPT och andra moderna AI-verktyg bygger på maskininlärning, en teknik där datorer tränas på stora mängder data för att känna igen mönster. Språkmodeller som GPT-5 och Claude 4.1 kallas LLM (Large Language Models) och är tränade på text. Bildgeneratorer som DALL-E och Stable Diffusion använder andra typer av modeller, men principen är liknande.
Den stora revolutionen kom 2017 när Google forskare presenterade en ny metod: transformatorn, beskriven i rapporten Attention is all you need. Den tekniken ligger fortfarande till grund för dagens AI-system.
Läs också: Nvidia passerade 4 000 miljarder dollar
Enkelt uttryckt justeras miljarder parametrar – små värden som styr hur modellen beräknar sannolikheter. Precis som i ett matteexempel från gymnasiet, där man försöker hitta en ekvation som bäst beskriver ett samband, optimerar man här parametrar så att modellen gör så få fel som möjligt.
Så tränas en språkmodell
Träningen går ut på att modellen får mängder av text och ska gissa nästa ord i en mening. Om den får inledningen ”Sveriges huvudstad heter …” justerar den sina parametrar tills sannolikheten för ordet ”Stockholm” blir högre än alternativen.
Skillnaden mot enklare modeller är skalan: istället för två parametrar handlar det om miljarder. Datan består inte av några hundra exempel utan av enorma textmängder. Allt arbete kokar ner till en gigantisk uppsättning matriser – tabeller fyllda med siffror som visar hur olika ord och orddelar hänger ihop statistiskt.
När träningen är klar har modellen förmågan att generera text som ser sammanhängande och mänsklig ut.
Läs också: Apple vill köpa F1-rättigheterna
Vad är egentligen tokens?
För att modellen ska kunna räkna på text delas allt upp i små delar som kallas tokens. Ett token kan vara ett helt ord, men oftast delas orden upp i mindre bitar, som ”tvätt”, ”maskin” och ”er”. Det är ingen grammatisk regel bakom, utan ett tekniskt sätt att komprimera språk.
När du skriver en mening till ChatGPT omvandlas den först till tokens. Modellen räknar sedan ut sannolikheten för vilket token som mest sannolikt kommer härnäst – ord för ord, tills den når slutet på svaret.
Hur svaren genereras
När du ställer en fråga försöker modellen alltså fortsätta din text på ett statistiskt rimligt sätt. Den gissar fram ett ord i taget, där varje val påverkas av sannolikheter. I exemplet ”Sveriges huvudstad heter …” är chansen mycket stor att nästa ord blir ”Stockholm”. Därefter fortsätter processen, steg för steg.
Forskare beskriver det ibland som att modellen ”kastar en viktad tärning” för varje nytt ord – där vissa alternativ nästan alltid vinner, medan andra har en minimal chans att dyka upp.
Läs också: Samsung fortsätter med galna priser
Resonerande modeller
En nyare typ av språkmodeller kallas resonerande. De kan generera svar som ser ut att innehålla tankebanor, vilket ofta gör resultaten mer träffsäkra vid komplexa uppgifter. Men det handlar fortfarande inte om tänkande, utan om en mer avancerad variant av samma matematiska process.
När AI ”hallucinerar”
Ett välkänt problem är att AI ibland hittar på fakta – något som ofta beskrivs som ”hallucinationer”. Men forskare menar att det är en missvisande term. En språkmodell har ingen förståelse för vad som är sant eller falskt. Den räknar bara på sannolikheter.
Eftersom träningsdatan oftast innehåller korrekta påståenden blir svaren i regel rätt. Men om modellen saknar kunskap eller hamnar i ett ovanligt sammanhang kan den lika gärna gissa fel – och presentera det med samma självsäkerhet.
Slutsats: kraftfull men begränsad
AI som ChatGPT bygger alltså på avancerad statistik, inte på förståelse eller medvetande. Det är en teknik som kan skapa imponerande texter, men som samtidigt riskerar att producera felaktiga påståenden.
Läs också: Håll inne knappen – då avslöjar WhatsApp en dold funktion du inte visste fanns
Framtidens stora fråga blir därför inte bara hur långt tekniken kan utvecklas – utan också hur vi väljer att använda den i samhället.
Läs också: Samsung Galaxy Z Fold7: Tunnare, starkare och snabbare