2024. 11. 26. - 08:30

„Az elfogultság emberi probléma” - Még mindig torzít az orvosi mesterséges intelligencia

„Az elfogultság emberi probléma” - Még mindig torzít az orvosi mesterséges intelligencia

Az orvosi mesterséges intelligencia fejlődésének különböző szakaszaiban tapasztalható torzítások akár rossz klinikai eredményekhez is vezethetnek – erről a Yale Egyetem kutatói készítettek elemzést.

Az orvosi mesterséges intelligencia továbbra is fennálló torzításáról számolt be egy új tanulmány.
 
Az áttekintésben a Yale kutatói adtak alapos elemzést arról, hogy a mesterséges intelligencia fejlődésének különböző szakaszaiban tapasztalható torzítások miként vezethetnek rossz klinikai eredményekhez és súlyosbíthatják az egészségi egyenlőtlenségeket.
 
John Onofrey, Ph.D., a Yale Egészségügyi Iskola (YSM) radiológiai és biomedikai képalkotási és urológiai adjunktusa, a tanulmány vezető szerzője azt mondta, „elfogultság megy be és elfogultság jön ki”. Hozzátette: ugyanez az elképzelés abszolút érvényes az orvosi MI esetében. Olvasd el: Veszélyes lehet a mesterséges intelligencia-terapeuta
 
Még mindig torzít az orvosi mesterséges intelligencia
Még mindig torzít az orvosi mesterséges intelligencia
 
Hipotetikus és valós példákat is tartalmaz a PLOS Digital Health folyóiratban megjelent cikk, amelyek bemutatják, miként befolyásolja az elfogultság az egészségügyi ellátás eredményeit - és enyhítő stratégiákat is kínál.
 
Az elfogultság mérséklése ijesztő feladatnak tűnik
 
 
„Miután sok éve dolgozom a gépi tanulás/mesterséges intelligencia területén, nem meglepő számomra az elképzelés, hogy az algoritmusoknak vannak torzításaik. Az azonban, hogy kilistázzuk az elfogultság mesterséges intelligencia tanulási folyamatába belépésének összes lehetséges módját, elképzelhetetlen. Emiatt az elfogultság mérséklése ijesztő feladatnak tűnik” – mondta John Onofrey.
 
A tanulmány szerzői az orvosi mesterséges intelligencia fejlesztésének minden szakaszában azonosították a torzítások forrásait – a képzési adatokat, a modellfejlesztést, a közzétételt és a megvalósítást –, mindegyikhez illusztratív példákat és torzításcsökkentési stratégiákat mutattak be.
 
Az egyik példában a korábbi kutatások felfedezték, hogy a rassz faktorként történő felhasználása a veseműködés becslésében hosszabb várakozási időt eredményezhet – vagyis tovább tart, amíg a feketebőrű emberek felkerülnek a transzplantációs listákra.
 
Az elfogultság emberi probléma
 
A Yale kutatócsapata számos javaslatot jegyzett fel, amelyek szerint a jövőbeli algoritmusok pontosabb méréseket, például társadalmi-gazdasági tényezőket és irányítószámot alkalmazhatnak.
 
„A klinikai kockázat-előrejelzéshez kiemelten fontos lesz az egészség társadalmi meghatározóinak megragadása és felhasználása az orvosi mesterséges intelligencia modellekben” - mondta James L. Cross, az YSM elsőéves orvostanhallgatója, a tanulmány első szerzője.
 
„Az elfogultság emberi probléma” - tette hozzá a tanulmány társszerzője, Michael Choma orvos, Ph.D., a radiológia és az orvosbiológiai képalkotás adjunktusa.
 
Megjegyezte: amikor a mesterséges intelligencia elfogultságáról beszélünk, emlékeznünk kell arra, hogy a számítógépek tanulnak tőlünk.
 
 
B.A.

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.