Connect with us

AI

Osynliga ljuskoder kan avslöja deepfakes – nytt genombrott från Cornell

Forskare vid Cornell University har utvecklat en ny teknik som gömmer digitala vattenstämplar i själva ljuset under en inspelning – och som kan hjälpa till att skilja äkta videor från AI-skapade förfalskningar.

Published

on

En ny metod för att bevisa vad som är äkta

Deepfakes har blivit så realistiska att det ofta är svårt att avgöra vad som är sant. För att möta hotet presenterade Cornell-forskaren Peter Michael den 10 augusti på SIGGRAPH 2025 i Vancouver en metod kallad noise-coded illumination, skriver TechSpot.Tekniken gör det möjligt att lägga in osynliga koder i ljuset som lyser upp scenen under inspelning.

Det unika är att vattenstämpeln inte finns i själva videofilen utan i ljuskällorna. När videon spelas in – oavsett om det är med en professionell kamera eller en mobiltelefon – fångas dessa ljuskoder automatiskt och kan senare användas för att verifiera materialets äkthet.

Ljuskällor som bär hemliga koder

Tidigare vattenmärkningsmetoder krävde kompatibla kameror eller program, vilket gjorde dem verkningslösa om en bedragare använde egen utrustning. Cornell-teamets metod fungerar med vilken kamera som helst.

Ljuskällor som datorskärmar, studiolampor eller vissa LED-armaturer kan programmeras via mjukvara för att sända kodade ljusmönster. Vanliga lampor kan anpassas med ett litet chip som subtilt varierar ljusstyrkan enligt en hemlig kod. Variationerna är osynliga för ögat men skapas utifrån forskning om hur människor uppfattar ljus.

Kodade videor avslöjar manipulationer

Varje ljuskälla får en unik kod som skapar en lågupplöst, tidsstämplad version av scenen – en så kallad kodvideo. Om någon manipulerar en video, till exempel tar bort innehåll eller lägger till objekt, kommer kodvideon att avslöja avvikelser.

Vid AI-genererade videor uppträder dessa kodvideor som slumpmässiga variationer, vilket gör det lättare att upptäcka förfalskningar. Forskarna har även lyckats använda upp till tre olika ljuskoder samtidigt, vilket gör det ännu svårare för bedragare att kopiera.

Effektiv men inte hela lösningen

Metoden har visat sig fungera i vissa utomhusmiljöer och ger pålitliga resultat oavsett hudton. Men forskarna betonar att detta inte är en slutgiltig lösning. AI-tekniken utvecklas snabbt, och förfalskningar blir ständigt mer avancerade.

– Video brukade vara något man kunde lita på, men den tiden är förbi, säger projektets initiativtagare Abe Davis. – Numera kan man skapa nästan vad som helst, och det gör att vi måste bli bättre på att skilja verkligheten från fiktion.

Mimmo Wiestål Fischetti är skribent på Dagens.se och Teksajten.se, där han bevakar nyheter, teknik och samhällsfrågor med fokus på det som påverkar svenska läsare i vardagen. Han har lång erfarenhet av digital publicering och har varit aktiv online sedan mitten av 1990-talet. Genom åren har han följt den snabba utvecklingen inom teknik, politik och digital kultur, med ett särskilt intresse för hur innovation och samhällsförändring hänger ihop. Med en tydlig och tillgänglig stil strävar han efter att göra komplexa frågor begripliga och relevanta för en bred publik. Se fullständig profil på Muck Rack

Advertisement