2022. 03. 03. - 09:00

Mesterséges intelligencia – Halláskárosultaknak segíthetnek az algoritmusok

Mesterséges intelligencia – Halláskárosultaknak segíthetnek az algoritmusok

Gépi tanulás javítja az emberi beszéd felismerését. Német kutatók egy gépi tanuláson és mély neurális hálózatokon alapuló emberi beszédfelismerő modellt vizsgálnak, mely segíthet a halláskárosultaknak.

A hallásvesztés manapság a tudományos kutatás gyorsan növekvő területe – különösen, hogy az életkor előrehaladásával egyre nő a halláskárosodással küzdő, baby boomer generációhoz tartozó emberek száma.
 
A kutatók jó ideje szeretnék megérteni, milyen hatással van a halláscsökkenés az érintettekre, ezért vizsgálják a beszédfelismerési képességet.
 
Az emberek nehezebben ismerik fel a beszédet, ha van visszhang, némi halláskárosodás áll fenn vagy jelentős a háttérzaj, például hallható a közlekedés vagy több hangszóróból jön zaj.
 
A szakemberek gyakran alkalmaznak hallókészülék-algoritmusokat az emberi beszédfelismerés javítására. Ezen algoritmusok értékelésére kísérleteket végeznek, melyek célja, hogy meghatározzák azt a jel-zaj arányt, amelynél az emberek meghatározott számú szót - általában 50 százalékot – felismernek. Ezek a tesztek azonban idő- és költségigényesek. Olvasd el: Jelentősen csökkentek az MI beszédfelismerési hibái
 
Halláskárosultaknak segíthetnek az algoritmusok
Halláskárosultaknak segíthetnek az algoritmusok
 
Német kutatók most egy gépi tanuláson és mély neurális hálózatokon alapuló emberi beszédfelismerő modellt vizsgálnak – adta hírül a The Journal of the Acoustical Society of America.
 
„Modellünk azért újdonság, mert jó előrejelzéseket ad hallássérült hallgatók számára a nagyon eltérő komplexitású zajtípusokra vonatkozóan, emellett kismértékű hibázás jellemzi és magas korrelációt mutat a mért adatokkal” – mondta el a tanulmány szerzője, Jana Roßbach, a Carl Von Ossietzky Egyetem munkatársa.
 
A kutatók automatikus beszédfelismerés (ASR) segítségével kiszámították, hány szót ért meg mondatonként egy hallgató. A legtöbb ember ismeri az ASR-t a beszédfelismerő eszközökön keresztül, mint például az Alexa és a Siri.
 
A vizsgálatba 8 normális hallással rendelkező és 20 hallássérült hallgatót vontak be. A beszédet elfedő, különféle komplex zajoknak tettek ki őket. A hallássérült hallgatókat három csoportba sorolták, melyekben az életkorral összefüggő halláskárosodás mértéke eltérő volt. Olvasd el: Nyelvre és zenére oktat a hordható tanító a fülben
 
A modell lehetővé tette a kutatók számára, hogy előrejelezzék a hallássérült hallgatók emberi beszédfelismerési teljesítményét - a különböző fokú hallásvesztés és különböző zajmaszkírozók esetében, melyek az időbeli modulációt tekintve egyre bonyolultabbak és hasonlóak a valós beszédhez. Egy személy esetleges halláskárosodása így egyénileg mérlegelhető.
 
„A legjobban azon lepődtünk meg, hogy az előrejelzések minden zajtípusnál jól működtek” – mondta Jana Roßbach, hozzátéve, hogy erre kevésbé számítottak. 
 
A modell egyetlen fül hallására készített előrejelzéseket. A jövőben a kutatók binaurális modellt fognak kidolgozni, mivel a beszéd megértését befolyásolja a „kétfülű hallás”.
 
A beszédérthetőség előrejelzése mellett a modell potenciálisan felhasználható arra, hogy jelezze a hallással kapcsolatos erőfeszítést, illetve a beszédminőséget, mivel ezek a dolgok igencsak összefüggnek egymással.
 
 
L.A.

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.

 

gyulai_vafurdo

profight_banner.