Connect with us

Ljud och bild

Apple-studie visar hur ljudinspelningar kan avslöja hjärtsjukdomar

Ny studie visar hur AI och ljudinspelningar kan avslöja hjärtfrekvens – och öppnar för spännande hälsomöjligheter i Apples produkter.

Published

on

Shutterstock

AI lär sig höra hjärtat slå – utan att tränas för det

En ny studie från Apples forskarteam visar något minst sagt fascinerande: artificiell intelligens kan räkna ut din hjärtfrekvens enbart genom att lyssna på ljudet från ditt hjärta – även om AI:n inte är särskilt tränad för just det.

LÄS OCKSÅ: Apple rättar till en 25 år gammal detalj – ny knappdesign i M4 MacBook Air

Enligt 9to5Mac testade forskarna sex olika stora ljudbaserade AI-modeller för att se hur bra de kunde tolka hjärtljud, s.k. fonokardiogram, och om dessa kunde användas för att mäta hjärtfrekvens. Resultatet? Flera av modellerna presterade lika bra som äldre tekniker som använder manuellt framtagna ljudfunktioner – en stor överraskning.

Apples egen AI-modell var bäst i test

Den mest spännande upptäckten var ändå Apples egenutvecklade modell, en intern version av CLAP (Contrastive Language-Audio Pretraining), som tränats på över 3 miljoner ljudklipp. Den levererade bäst resultat av alla och slog till och med traditionella metoder.

LÄS OCKSÅ: Musk-effekten: Teslas varumärke i botten – rankas lägre än Temu i USA

Så gick testerna till

För att genomföra studien använde Apple ett öppet dataset med över 20 timmars hjärtljud från riktiga patienter, alla noggrant analyserade av experter. Ljudklippen delades upp i 5 sekunder långa bitar, som försköts en sekund i taget – vilket gav cirka 23 000 ljudsnuttar att jobba med.

Sedan tränades en neuronnätverksmodell för att omvandla dessa ljud till hjärtfrekvensvärden i slag per minut. En intressant insikt var att de största AI-modellerna inte nödvändigtvis var bäst – det var istället de grundläggande eller mellannivå-lagren i modellerna som visade sig innehålla mest användbar information om hjärtat.

Kombinationen gammalt och nytt ger träffsäkra resultat

Studien visar att en kombination av klassisk signalbehandling och modern AI ger de mest pålitliga resultaten. När en metod hade svårt att tolka signalen kunde den andra ofta täcka upp. Tillsammans fångar de olika delar av hjärtats ljud – en viktig insikt för framtida utveckling.

LÄS OCKSÅ: Google Discover får nytt utseende – lyfter fram avsändaren tydligare

Vad Apple vill göra härnäst

Forskarna planerar att fortsätta utveckla lättare versioner av modellerna som kan köras direkt i exempelvis iPhones, Apple Watch – eller AirPods. Nästa steg blir att:

  • kombinera akustiska och AI-baserade signaler
  • finjustera modellerna för medicinska syften
  • undersöka om AI:n kan användas för att upptäcka sjukdomar
  • anpassa modellen till mer kliniskt relevanta ljud
  • jämföra med andra bioakustiska AI-modeller
  • förenkla modellerna så att de kräver mindre kraft

AirPods kan bli en framtida hälsosensor

Även om Apple inte utlovar några medicinska funktioner än, är det lätt att föreställa sig framtidens AirPods som kan mer än bara spela musik. De inbyggda mikrofonerna som används för brusreducering sitter nära örat – perfekt placerade för att höra hjärtats rytm.

Och om du någon gång lagt märke till din egen puls medan du haft dina AirPods i öronen, så vet du exakt vad forskarna syftar på.

Mimmo Wiestål Fischetti är skribent på Dagens.se och Teksajten.se, där han bevakar nyheter, teknik och samhällsfrågor med fokus på det som påverkar svenska läsare i vardagen. Han har lång erfarenhet av digital publicering och har varit aktiv online sedan mitten av 1990-talet. Genom åren har han följt den snabba utvecklingen inom teknik, politik och digital kultur, med ett särskilt intresse för hur innovation och samhällsförändring hänger ihop. Med en tydlig och tillgänglig stil strävar han efter att göra komplexa frågor begripliga och relevanta för en bred publik. Se fullständig profil på Muck Rack

Advertisement