2024. 07. 22. - 09:30
Csak a végső döntést ne bízzuk algoritmusra – Öngyilkosságot előzhet meg a mesterséges intelligencia
A rákos megbetegedések diagnosztizálásától az új gyógyszerek kifejlesztéséig a mesterséges intelligencia valóban átalakítja az egészségügyi ellátást. Még az öngyilkosságok megelőzésére is képes lehet.
Számos dologban segíthet ma már a mesterséges intelligencia, s ez különösen igaz az egészségügyi ellátásra.
Ami a mentális egészséget illeti, az MI-eszközök több ember kezelésében tudnak segíteni abban az ágazatban, amely nehezen talál elegendő munkaerőt a kereslet kielégítésére – hívta fel a figyelmet Annika Marie Schoene, a Northeastern University Institute for Experiential mesterséges intelligencia- kutatója.
Az intézet Responsible AI csapatában és az AI+Health csoportban dolgozó kutatóként Schoene jelenlegi munkája során azt igyekszik megérteni, hogyan fejlesztik a vállalatok ezeket az eszközöket, azok hiányosságait és etikai vonatkozásait. Olvasd el: Milyen terapeuták lehetnek a chatbotok?
Schoene-t elsősorban az érdekli, hogyan használható az eszköz az öngyilkosság-megelőzésre.
Csak a végső döntést ne bízzuk algoritmusra – Öngyilkosságot előzhet meg a mesterséges intelligencia
Ezeknek a technológiáknak a felhasználói és fejlesztői közé tartoznak a közösségi média cégek, a kormányzat és a klinikák, valamint a kaliforniai Szilícium-völgyben és más technológiai központokban működő startupok – mondta el a szakember.
Hozzátette: a mesterséges intelligencia egyik legismertebb felhasználója az öngyilkosság-megelőzésben a Meta, az Instagram és a Facebook anyavállalata.
Gépi tanulást alkalmaz, hogy segítsen észlelni azokat a bejegyzéseket, amelyek olyan szövegeket vagy képeket tartalmaznak, amelyek arra utalhatnak, hogy valaki ártani szándékozik önmagának.
A technológia a vállalat szerint mintafelismerő jeleket, például kifejezéseket és aggodalomra okot adó megjegyzéseket használ a lehetséges szorongás azonosítására.
A Meta emellett mesterséges intelligencia segítségével segíti a tartalomellenőröket a bejelentett esetek nyomon követésében és rangsorolásában, hogy további támogatást nyújtson számukra, képzett egészségügyi szakemberektől és a sürgősségi szolgálatoktól.
Bármennyire hasznosak azonban ezek a technológiák, fontos felismerni korlátaikat és hiányosságaikat – mutatott rá Schoene.
Az év elején a Society for Affective Science Conference (SAS 2024) konferencián mutatta be az eredményeket, amelyek rávilágítottak az MI-modellek egyik nagy korlátjára: küzdenek azzal, hogy azonosítsák az érzelmeket.
A tanulmány keretein belül a kutatók – köztük Tomo Lazovich és Resmi Ramachandranpillai, az Institute for Experiential MI munkatársai – azt akarták látni, hogyan elemezhetné a mesterséges intelligencia a közel 4000 tweetből álló adatkészletet, amelyeket emberek jelöltek meg az esetleges öngyilkossággal kapcsolatos tartalom miatt.
Minden tartalomhoz hozzárendeltek egy bizonyos érzelmet - például haragot, undort, félelmet, örömöt, semlegességet, szomorúságot és meglepetést.
A jelenlegi mesterséges intelligencia-technológiák képességeinek tesztelésére a kutatók három nyelvi modellt – a gépi tanuláson alapuló mesterséges intelligencia egy típusát – rendeltek hozzá minden egyes tweethez, hogy lássák, hogyan viszonyulnak a megjegyzéseik az emberi bejegyzésekhez.
Az eredmények mindenhol vegyesek voltak. Az emberi kommentátorok úgy találták, hogy a tweetek többsége a semleges érzelmi kategóriába tartozik, de ez három MI-modell esetében nem volt így.
Valójában nehéz volt egységes mintára lelni a modellek között, bár úgy találták, hogy a modellek bizonyos érzelmi kategóriák felé jobban elfogultak.
„Ez arra késztetett bennünket, hogy elgondolkodjunk: nem biztos, hogy az érzelmek előrejelzésére szolgáló nyelvi modellek képesek finomabb megkülönböztetéseket és részletesebb öngyilkossággal kapcsolatos tartalmakat találni" - mondta Schoene.
Hozzátette: eredményeik arra is ösztönzik őket, hogy megkérdőjelezzék, mennyire hasznosak és hitelesek az ilyen technikák, amikor érzelmi jellemzőket akarnak használni az öngyilkosság-észlelési feladatokban, különös tekintettel arra, hogy ez egy nagyon magas kockázatú forgatókönyv és a magas pozitív arány valódi károkat okozhat.
A jelenlegi technológiák önmagukban nem elegendőek az öngyilkosság előrejelzésére – szögezte le Schoene, kiemelve a képzett egészségügyi szakemberek fontosságát.
Ez azonban nem jelenti azt, hogy a mesterséges intelligencia egyáltalán nem használható. Hasznos lehet abban, hogy segítse az egészségügyi szakembereket „az öngyilkossági gondolatok és szándékok okainak és tényezőinek megértésében”, valamint sok adat egyidejű elemzésében.
„Amikor információt szeretne kinyerni vagy összefoglalni, a mesterséges intelligencia nagyon hasznos lehet. Ebben senki sem kételkedne. Itt az a fontos, hogy a végső döntéshozatalt soha nem szabad az algoritmusra bízni” – mondta összegzésképpen a szakember.
B.A.