Smarta prylar
Nu ska Meta-glasögonen höra bättre i buller – och välja musik efter vad du ser
Meta vässar sina AI-glasögon med två nya drag: ett läge som gör röster tydligare i bullriga miljöer och en Spotify-funktion som väljer musik utifrån vad du tittar på. Utrullningen börjar för användare i Metas Early Access Program och sker därefter stegvis till fler.

Shutterstock
Nya “Conversation Focus” ska få bort bruset runt samtalet
Funktionen heter Conversation Focus och är tänkt att hjälpa dig höra personen framför dig när det är mycket ljud runtomkring – som på caféer, i restauranger eller på platser med mycket folk. Enligt Meta använder glasögonen sina mikrofoner och öppna högtalare för att förstärka rösten du pratar med och göra den lättare att skilja från bakgrundsljud, enligt The Verge.
Du kan slå på läget med röstkommando (till exempel “Hey Meta, start Conversation Focus”) eller lägga det som en genväg via en “tryck-och-håll”-funktion på glasögonen, skriver The Verge.
Spotify får AI-hjälp: musik som matchar det du ser
Den andra nyheten är en “multimodal” Spotify-funktion där du kan be glasögonen spela musik som passar din omgivning. Exemplet som lyfts fram är att du kan titta på julpynt och säga något i stil med: “Hey Meta, play a song to match this view” – och så skapas en spellista utifrån stunden och din smakprofil på Spotify.
Läs också: Nvidia passerade 4 000 miljarder dollar
Exakt hur systemet tolkar mer abstrakta miljöer är fortfarande oklart, men idén är tydlig: kameran och AI:n ska förstå situationen och föreslå en stämning i musikform.
Vilka modeller får uppdateringen – och vem får den först?
Uppdateringen rullas ut till Meta Ray-Ban-glasögon (både Gen 1 och Gen 2) samt Oakley Meta HSTN, enligt The Verge. Starten sker via Metas Early Access Program, och därefter kommer uppdateringen “gradvis” till fler användare.
Oakley Meta Vanguard får snabbkommandon för “photo” och “video”
Meta lägger också in ett mer sportinriktat knep i Oakley Meta Vanguard: möjligheten att trigga vissa kommandon med ett enda ord – utan att först säga “Hey Meta”. Tanken är att exempelvis “photo” ska räcka för att ta en bild och “video” för att börja filma, något Meta beskriver som ett sätt att hjälpa användare “spara andan” under löpning eller cykling.
Varför det här spelar roll
Meta trycker allt tydligare på att glasögonen inte bara är en kamera – utan ett slags ljud- och AI-pryl du bär hela dagen. Med Conversation Focus går de efter ett konkret vardagsproblem: att höra bra när det är stökigt. Och med Spotify-integrationen testar Meta hur långt “AI som ser” kan gå i praktiska, mer underhållningsdrivna funktioner.
Läs också: Apple vill köpa F1-rättigheterna
Läs också: Samsung fortsätter med galna priser
