Följ oss här

AI

Osynliga ljuskoder kan avslöja deepfakes – nytt genombrott från Cornell

Forskare vid Cornell University har utvecklat en ny teknik som gömmer digitala vattenstämplar i själva ljuset under en inspelning – och som kan hjälpa till att skilja äkta videor från AI-skapade förfalskningar.

Publicerad

d.

Foto: CHIEW / Shutterstock.com

En ny metod för att bevisa vad som är äkta

Deepfakes har blivit så realistiska att det ofta är svårt att avgöra vad som är sant. För att möta hotet presenterade Cornell-forskaren Peter Michael den 10 augusti på SIGGRAPH 2025 i Vancouver en metod kallad noise-coded illumination, skriver TechSpot.Tekniken gör det möjligt att lägga in osynliga koder i ljuset som lyser upp scenen under inspelning.

Det unika är att vattenstämpeln inte finns i själva videofilen utan i ljuskällorna. När videon spelas in – oavsett om det är med en professionell kamera eller en mobiltelefon – fångas dessa ljuskoder automatiskt och kan senare användas för att verifiera materialets äkthet.

Ljuskällor som bär hemliga koder

Tidigare vattenmärkningsmetoder krävde kompatibla kameror eller program, vilket gjorde dem verkningslösa om en bedragare använde egen utrustning. Cornell-teamets metod fungerar med vilken kamera som helst.

Läs också: Nvidia passerade 4 000 miljarder dollar

Ljuskällor som datorskärmar, studiolampor eller vissa LED-armaturer kan programmeras via mjukvara för att sända kodade ljusmönster. Vanliga lampor kan anpassas med ett litet chip som subtilt varierar ljusstyrkan enligt en hemlig kod. Variationerna är osynliga för ögat men skapas utifrån forskning om hur människor uppfattar ljus.

Kodade videor avslöjar manipulationer

Varje ljuskälla får en unik kod som skapar en lågupplöst, tidsstämplad version av scenen – en så kallad kodvideo. Om någon manipulerar en video, till exempel tar bort innehåll eller lägger till objekt, kommer kodvideon att avslöja avvikelser.

Vid AI-genererade videor uppträder dessa kodvideor som slumpmässiga variationer, vilket gör det lättare att upptäcka förfalskningar. Forskarna har även lyckats använda upp till tre olika ljuskoder samtidigt, vilket gör det ännu svårare för bedragare att kopiera.

Effektiv men inte hela lösningen

Metoden har visat sig fungera i vissa utomhusmiljöer och ger pålitliga resultat oavsett hudton. Men forskarna betonar att detta inte är en slutgiltig lösning. AI-tekniken utvecklas snabbt, och förfalskningar blir ständigt mer avancerade.

Läs också: Apple vill köpa F1-rättigheterna

– Video brukade vara något man kunde lita på, men den tiden är förbi, säger projektets initiativtagare Abe Davis. – Numera kan man skapa nästan vad som helst, och det gör att vi måste bli bättre på att skilja verkligheten från fiktion.

Läs också: Samsung fortsätter med galna priser

Jag är skribent på Media Group Denmark och skriver för de svenska plattformarna Dagens.se och Teksajten.se. Under det senaste året på MGDK har jag fokuserat på nyheter, teknik och samhälle, med ett tydligt mål att göra komplexa ämnen begripliga för alla. Jag har varit aktiv online sedan 1995 och är fortfarande fascinerad av den ständigt föränderliga digitala världen – från ny teknik och politik till samhällsförändringar och nya sätt att berätta historier – Min Muck Rack-profil

Annons