Följ oss här

Säkerhet

Så lätt fejkar bedragarna din röst – med gratis AI

AI har nu nått en punkt där röster kan klonas i realtid – med skrämmande precision. Experter varnar för att tekniken redan används av bedragare som kan låta exakt som vem som helst, i direktsända samtal.

Publicerad

d.

Anonymous / hacker

Vladfotograf / Shutterstock

AI har nu nått en punkt där röster kan klonas i realtid – med skrämmande precision. Experter varnar för att tekniken redan används av bedragare som kan låta exakt som vem som helst, i direktsända samtal.

Röstförfalskning på sekunder

Hacker
Shutterstock.com

Cyber­säkerhetsföretaget NCC Group har visat hur öppen källkod och billig hårdvara räcker för att skapa trovärdiga röst-deepfakes. Det betyder att vem som helst, med rätt verktyg, kan låta som en chef, kollega – eller en familjemedlem – på bara några minuter, enligt TechSpot

Tekniken bakom bluffen

Hacker
Foto: Gorodenkoff / Shutterstock.com

Den nya metoden, kallad deepfake vishing, bygger på AI-modeller som tränas på inspelningar av en persons röst. Bedragaren trycker på en knapp i ett webbgränssnitt och kan därefter prata i realtid som sitt offer – utan märkbar fördröjning. Tidigare system krävde långa ljudklipp och förinspelade svar, men den barriären är nu borta.

Läs också: Nvidia passerade 4 000 miljarder dollar

Kräver bara en vanlig laptop

HACKER
PeopleImages.com - Yuri A / Shutterstock

NCC Group:s test kördes på en bärbar dator med ett enklare Nvidia RTX A1000-grafikkort. Trots den blygsamma hårdvaran var fördröjningen bara en halv sekund. Det innebär att även personer med vanliga datorer och inbyggda mikrofoner kan skapa röstförfalskningar som låter kusligt äkta.

“Deepfake vishing” – nästa stora hot

Foto: CHIEW / Shutterstock.com

Under kontrollerade tester, med tillåtelse från deltagarna, lyckades forskarna lura nästan alla målpersoner. Kombinationen av röst-deepfake och falsk nummerpresentation fick samtalen att verka helt legitima. Det här gör telefonbedrägerier både snabbare, enklare och svårare att avslöja.

Video-deepfakes ligger efter

Chat GPT vs Google
JRdes / Shutterstock

Även om AI kan skapa realistiska videor, är tekniken ännu inte lika mogen i realtid. System som Googles Gemini Flash 2.5 Image och Alibabas WAN 2.2 Animate kan skapa chockerande äkta klipp, men de avslöjas ofta av små fel i mimik, tonfall eller läpprörelser. Skillnaderna märks – åtminstone än så länge.

När bluffen blir verklighet

Foto: F8 studio / Shutterstock.com

AI-bedrägerier är inte längre teoretiska. Ett företag lurades nyligen att skicka en dator till en falsk adress efter en “videointervju” med en deepfake. Händelsen visar hur lätt företag och privatpersoner kan manipuleras när röst och bild inte längre garanterar äkthet.

Läs också: Apple vill köpa F1-rättigheterna

Dags för nya säkerhetsvanor

shutterstock.com

Experter menar att traditionella säkerhetsfrågor inte längre räcker. Istället föreslås unika kodord eller signaler, likt basebollens hemliga tecken, för att bekräfta identitet under samtal. Utan nya rutiner riskerar vi en framtid där rösten i telefonen inte längre går att lita på – oavsett vem som ringer.

Läs också: Samsung fortsätter med galna priser

Jag är skribent på Media Group Denmark och skriver för de svenska plattformarna Dagens.se och Teksajten.se. Under det senaste året på MGDK har jag fokuserat på nyheter, teknik och samhälle, med ett tydligt mål att göra komplexa ämnen begripliga för alla. Jag har varit aktiv online sedan 1995 och är fortfarande fascinerad av den ständigt föränderliga digitala världen – från ny teknik och politik till samhällsförändringar och nya sätt att berätta historier – Muck Rack

Annons