Ljud och bild
Apple-studie visar hur ljudinspelningar kan avslöja hjärtsjukdomar
Ny studie visar hur AI och ljudinspelningar kan avslöja hjärtfrekvens – och öppnar för spännande hälsomöjligheter i Apples produkter.

AI lär sig höra hjärtat slå – utan att tränas för det
En ny studie från Apples forskarteam visar något minst sagt fascinerande: artificiell intelligens kan räkna ut din hjärtfrekvens enbart genom att lyssna på ljudet från ditt hjärta – även om AI:n inte är särskilt tränad för just det.
LÄS OCKSÅ: Apple rättar till en 25 år gammal detalj – ny knappdesign i M4 MacBook Air
Enligt 9to5Mac testade forskarna sex olika stora ljudbaserade AI-modeller för att se hur bra de kunde tolka hjärtljud, s.k. fonokardiogram, och om dessa kunde användas för att mäta hjärtfrekvens. Resultatet? Flera av modellerna presterade lika bra som äldre tekniker som använder manuellt framtagna ljudfunktioner – en stor överraskning.
Apples egen AI-modell var bäst i test
Den mest spännande upptäckten var ändå Apples egenutvecklade modell, en intern version av CLAP (Contrastive Language-Audio Pretraining), som tränats på över 3 miljoner ljudklipp. Den levererade bäst resultat av alla och slog till och med traditionella metoder.
LÄS OCKSÅ: Musk-effekten: Teslas varumärke i botten – rankas lägre än Temu i USA
Så gick testerna till
För att genomföra studien använde Apple ett öppet dataset med över 20 timmars hjärtljud från riktiga patienter, alla noggrant analyserade av experter. Ljudklippen delades upp i 5 sekunder långa bitar, som försköts en sekund i taget – vilket gav cirka 23 000 ljudsnuttar att jobba med.
Sedan tränades en neuronnätverksmodell för att omvandla dessa ljud till hjärtfrekvensvärden i slag per minut. En intressant insikt var att de största AI-modellerna inte nödvändigtvis var bäst – det var istället de grundläggande eller mellannivå-lagren i modellerna som visade sig innehålla mest användbar information om hjärtat.
Kombinationen gammalt och nytt ger träffsäkra resultat
Studien visar att en kombination av klassisk signalbehandling och modern AI ger de mest pålitliga resultaten. När en metod hade svårt att tolka signalen kunde den andra ofta täcka upp. Tillsammans fångar de olika delar av hjärtats ljud – en viktig insikt för framtida utveckling.
LÄS OCKSÅ: Google Discover får nytt utseende – lyfter fram avsändaren tydligare
Vad Apple vill göra härnäst
Forskarna planerar att fortsätta utveckla lättare versioner av modellerna som kan köras direkt i exempelvis iPhones, Apple Watch – eller AirPods. Nästa steg blir att:
- kombinera akustiska och AI-baserade signaler
- finjustera modellerna för medicinska syften
- undersöka om AI:n kan användas för att upptäcka sjukdomar
- anpassa modellen till mer kliniskt relevanta ljud
- jämföra med andra bioakustiska AI-modeller
- förenkla modellerna så att de kräver mindre kraft
AirPods kan bli en framtida hälsosensor
Även om Apple inte utlovar några medicinska funktioner än, är det lätt att föreställa sig framtidens AirPods som kan mer än bara spela musik. De inbyggda mikrofonerna som används för brusreducering sitter nära örat – perfekt placerade för att höra hjärtats rytm.
Och om du någon gång lagt märke till din egen puls medan du haft dina AirPods i öronen, så vet du exakt vad forskarna syftar på.