AI
Osynliga ljuskoder kan avslöja deepfakes – nytt genombrott från Cornell
Forskare vid Cornell University har utvecklat en ny teknik som gömmer digitala vattenstämplar i själva ljuset under en inspelning – och som kan hjälpa till att skilja äkta videor från AI-skapade förfalskningar.

Foto: CHIEW / Shutterstock.com
En ny metod för att bevisa vad som är äkta
Deepfakes har blivit så realistiska att det ofta är svårt att avgöra vad som är sant. För att möta hotet presenterade Cornell-forskaren Peter Michael den 10 augusti på SIGGRAPH 2025 i Vancouver en metod kallad noise-coded illumination, skriver TechSpot.Tekniken gör det möjligt att lägga in osynliga koder i ljuset som lyser upp scenen under inspelning.
Det unika är att vattenstämpeln inte finns i själva videofilen utan i ljuskällorna. När videon spelas in – oavsett om det är med en professionell kamera eller en mobiltelefon – fångas dessa ljuskoder automatiskt och kan senare användas för att verifiera materialets äkthet.
Ljuskällor som bär hemliga koder
Tidigare vattenmärkningsmetoder krävde kompatibla kameror eller program, vilket gjorde dem verkningslösa om en bedragare använde egen utrustning. Cornell-teamets metod fungerar med vilken kamera som helst.
Läs också: Nvidia passerade 4 000 miljarder dollar
Ljuskällor som datorskärmar, studiolampor eller vissa LED-armaturer kan programmeras via mjukvara för att sända kodade ljusmönster. Vanliga lampor kan anpassas med ett litet chip som subtilt varierar ljusstyrkan enligt en hemlig kod. Variationerna är osynliga för ögat men skapas utifrån forskning om hur människor uppfattar ljus.
Kodade videor avslöjar manipulationer
Varje ljuskälla får en unik kod som skapar en lågupplöst, tidsstämplad version av scenen – en så kallad kodvideo. Om någon manipulerar en video, till exempel tar bort innehåll eller lägger till objekt, kommer kodvideon att avslöja avvikelser.
Vid AI-genererade videor uppträder dessa kodvideor som slumpmässiga variationer, vilket gör det lättare att upptäcka förfalskningar. Forskarna har även lyckats använda upp till tre olika ljuskoder samtidigt, vilket gör det ännu svårare för bedragare att kopiera.
Effektiv men inte hela lösningen
Metoden har visat sig fungera i vissa utomhusmiljöer och ger pålitliga resultat oavsett hudton. Men forskarna betonar att detta inte är en slutgiltig lösning. AI-tekniken utvecklas snabbt, och förfalskningar blir ständigt mer avancerade.
Läs också: Apple vill köpa F1-rättigheterna
– Video brukade vara något man kunde lita på, men den tiden är förbi, säger projektets initiativtagare Abe Davis. – Numera kan man skapa nästan vad som helst, och det gör att vi måste bli bättre på att skilja verkligheten från fiktion.
Läs också: Samsung fortsätter med galna priser