Connect with us

Säkerhet

Hacker varning: AI-bedrägeri slår mot Mac – virus sprids via falska ChatGPT-svar

Angripare utnyttjar förtroendet för AI-tjänster och Google. Nu varnar säkerhetsforskare för en ny metod där Mac-användare luras att installera virus själva.

Published

on

Hacker

AI används som lockbete

Säkerhetsforskare har avslöjat en ny typ av cyberattack där angripare använder ChatGPT för att lura Mac-användare att köra skadliga kommandon i Terminal. Resultatet blir att skadeprogrammet MacStealer installeras – ett verktyg som kan stjäla iCloud-uppgifter, filer och kreditkortsdata.

Metoden har uppmärksammats i en rapport från cybersäkerhetsföretaget Huntress, och beskrivs som en del av en växande trend där klassiska bedrägerier paketeras i modern AI-form, skriver Engadget.

Sökte på hjälp – fick virus

Angreppen har riktats mot användare som via Google sökt efter enkla tips för att frigöra diskutrymme på sin Mac. Vid sökningar som ”Clear disk space on Mac OS” dök till synes hjälpsamma träffar upp högst i resultatlistan.

Två av de översta länkarna ledde till publika konversationer på ChatGPT och Grok. De såg legitima ut, låg på välkända plattformar och gav lugna steg-för-steg-instruktioner för ”säker systemrensning”.

I själva verket var råden en fälla.

Så genomförs attacken

Enligt Huntress skapade angriparna AI-genererade chattar där skadliga Terminal-kommandon presenterades som ofarliga. Dessa chattar gjordes publika och marknadsfördes sedan via sponsrade Google-annonser för att hamna högst upp i sökresultaten.

När användaren följde instruktionerna och klistrade in kommandot i Terminal laddades en variant av AMOS Stealer ner. Programmet eskalerade sina rättigheter till root och installerade sig permanent i bakgrunden – helt utan varningsrutor från macOS.

Samma upplägg användes både via ChatGPT och Grok, enligt säkerhetsforskarna.

Därför är metoden extra farlig

Attacken är särskilt effektiv eftersom den kringgår macOS inbyggda skydd. Användaren utför själv kommandot, vilket gör att systemet inte stoppar installationen.

Dessutom spelar angriparna på det starka förtroendet för kända varumärken som Google och ChatGPT. När råden presenteras i en välbekant AI-miljö sänks användarens vaksamhet.

Så skyddar du dig

Att köra Terminal-kommandon utan att förstå exakt vad de gör innebär alltid en risk. Om du ändå gör det måste du vara helt säker på källan.

Säkerhetsexperter varnar också för att betrakta sponsrade sökresultat som pålitliga – särskilt när de leder till tekniska instruktioner.

Kort sagt: ser det för bra, för enkelt och för tryggt ut – då är det ofta precis tvärtom.

Mimmo Wiestål Fischetti är skribent på Dagens.se och Teksajten.se, där han bevakar nyheter, teknik och samhällsfrågor med fokus på det som påverkar svenska läsare i vardagen. Han har lång erfarenhet av digital publicering och har varit aktiv online sedan mitten av 1990-talet. Genom åren har han följt den snabba utvecklingen inom teknik, politik och digital kultur, med ett särskilt intresse för hur innovation och samhällsförändring hänger ihop. Med en tydlig och tillgänglig stil strävar han efter att göra komplexa frågor begripliga och relevanta för en bred publik. Se fullständig profil på Muck Rack

Advertisement