Säkerhet
Hacker varning: AI-bedrägeri slår mot Mac – virus sprids via falska ChatGPT-svar
Angripare utnyttjar förtroendet för AI-tjänster och Google. Nu varnar säkerhetsforskare för en ny metod där Mac-användare luras att installera virus själva.

Shutterstock.com
AI används som lockbete
Säkerhetsforskare har avslöjat en ny typ av cyberattack där angripare använder ChatGPT för att lura Mac-användare att köra skadliga kommandon i Terminal. Resultatet blir att skadeprogrammet MacStealer installeras – ett verktyg som kan stjäla iCloud-uppgifter, filer och kreditkortsdata.
Metoden har uppmärksammats i en rapport från cybersäkerhetsföretaget Huntress, och beskrivs som en del av en växande trend där klassiska bedrägerier paketeras i modern AI-form, skriver Engadget.
Sökte på hjälp – fick virus
Angreppen har riktats mot användare som via Google sökt efter enkla tips för att frigöra diskutrymme på sin Mac. Vid sökningar som ”Clear disk space on Mac OS” dök till synes hjälpsamma träffar upp högst i resultatlistan.
Två av de översta länkarna ledde till publika konversationer på ChatGPT och Grok. De såg legitima ut, låg på välkända plattformar och gav lugna steg-för-steg-instruktioner för ”säker systemrensning”.
Läs också: Nvidia passerade 4 000 miljarder dollar
I själva verket var råden en fälla.
Så genomförs attacken
Enligt Huntress skapade angriparna AI-genererade chattar där skadliga Terminal-kommandon presenterades som ofarliga. Dessa chattar gjordes publika och marknadsfördes sedan via sponsrade Google-annonser för att hamna högst upp i sökresultaten.
När användaren följde instruktionerna och klistrade in kommandot i Terminal laddades en variant av AMOS Stealer ner. Programmet eskalerade sina rättigheter till root och installerade sig permanent i bakgrunden – helt utan varningsrutor från macOS.
Samma upplägg användes både via ChatGPT och Grok, enligt säkerhetsforskarna.
Läs också: Apple vill köpa F1-rättigheterna
Därför är metoden extra farlig
Attacken är särskilt effektiv eftersom den kringgår macOS inbyggda skydd. Användaren utför själv kommandot, vilket gör att systemet inte stoppar installationen.
Dessutom spelar angriparna på det starka förtroendet för kända varumärken som Google och ChatGPT. När råden presenteras i en välbekant AI-miljö sänks användarens vaksamhet.
Så skyddar du dig
Att köra Terminal-kommandon utan att förstå exakt vad de gör innebär alltid en risk. Om du ändå gör det måste du vara helt säker på källan.
Säkerhetsexperter varnar också för att betrakta sponsrade sökresultat som pålitliga – särskilt när de leder till tekniska instruktioner.
Läs också: Samsung fortsätter med galna priser
Kort sagt: ser det för bra, för enkelt och för tryggt ut – då är det ofta precis tvärtom.
Läs också: Håll inne knappen – då avslöjar WhatsApp en dold funktion du inte visste fanns
