Säkerhet
Så lätt fejkar bedragarna din röst – med gratis AI
AI har nu nått en punkt där röster kan klonas i realtid – med skrämmande precision. Experter varnar för att tekniken redan används av bedragare som kan låta exakt som vem som helst, i direktsända samtal.

Vladfotograf / Shutterstock
AI har nu nått en punkt där röster kan klonas i realtid – med skrämmande precision. Experter varnar för att tekniken redan används av bedragare som kan låta exakt som vem som helst, i direktsända samtal.
Röstförfalskning på sekunder

Cybersäkerhetsföretaget NCC Group har visat hur öppen källkod och billig hårdvara räcker för att skapa trovärdiga röst-deepfakes. Det betyder att vem som helst, med rätt verktyg, kan låta som en chef, kollega – eller en familjemedlem – på bara några minuter, enligt TechSpot.
Tekniken bakom bluffen

Den nya metoden, kallad deepfake vishing, bygger på AI-modeller som tränas på inspelningar av en persons röst. Bedragaren trycker på en knapp i ett webbgränssnitt och kan därefter prata i realtid som sitt offer – utan märkbar fördröjning. Tidigare system krävde långa ljudklipp och förinspelade svar, men den barriären är nu borta.
Läs också: Nvidia passerade 4 000 miljarder dollar
Kräver bara en vanlig laptop

NCC Group:s test kördes på en bärbar dator med ett enklare Nvidia RTX A1000-grafikkort. Trots den blygsamma hårdvaran var fördröjningen bara en halv sekund. Det innebär att även personer med vanliga datorer och inbyggda mikrofoner kan skapa röstförfalskningar som låter kusligt äkta.
“Deepfake vishing” – nästa stora hot

Under kontrollerade tester, med tillåtelse från deltagarna, lyckades forskarna lura nästan alla målpersoner. Kombinationen av röst-deepfake och falsk nummerpresentation fick samtalen att verka helt legitima. Det här gör telefonbedrägerier både snabbare, enklare och svårare att avslöja.
Video-deepfakes ligger efter

Även om AI kan skapa realistiska videor, är tekniken ännu inte lika mogen i realtid. System som Googles Gemini Flash 2.5 Image och Alibabas WAN 2.2 Animate kan skapa chockerande äkta klipp, men de avslöjas ofta av små fel i mimik, tonfall eller läpprörelser. Skillnaderna märks – åtminstone än så länge.
När bluffen blir verklighet

AI-bedrägerier är inte längre teoretiska. Ett företag lurades nyligen att skicka en dator till en falsk adress efter en “videointervju” med en deepfake. Händelsen visar hur lätt företag och privatpersoner kan manipuleras när röst och bild inte längre garanterar äkthet.
Läs också: Apple vill köpa F1-rättigheterna
Dags för nya säkerhetsvanor

Experter menar att traditionella säkerhetsfrågor inte längre räcker. Istället föreslås unika kodord eller signaler, likt basebollens hemliga tecken, för att bekräfta identitet under samtal. Utan nya rutiner riskerar vi en framtid där rösten i telefonen inte längre går att lita på – oavsett vem som ringer.
Läs också: Samsung fortsätter med galna priser
