2025. 10. 08. - 08:20

A ChatGPT nem tud minket diagnosztizálni – figyelmeztetnek a szakértők

A ChatGPT nem tud minket diagnosztizálni – figyelmeztetnek a szakértők

Az internet ma már tele van mesterséges intelligencia-chatbotokkal és egészségügyi tanácsokkal. A ChatGPT-vel diagnosztizáltatni magunkat azonban szakértők szerint egyáltalán nem jó ötlet.

Ma már a világháló tele van nemcsak egészségügyi tanácsokkal, hanem mesterséges intelligencia-vezérelt chatbotokkal is, akiktől sokan kérdeznek – egészségük kapcsán is.
 
A biztonságos kivizsgálás vagy diagnózis érdekében azonban továbbra is a legjobb, ha valódi orvoshoz fordulunk – állítják a szakértők.
 
Ahmed Abdeen Hamed, a Binghamton Egyetem kutatója egy ilyen szakértő, aki nemrégiben tanulmányt is vezetett annak értékelésére, mennyire képes a mesterséges intelligencia teljesíteni orvosi területen.
 
Kutatócsapata a ma leginkább emlegetett eszközre, a ChatGPT-re összpontosított.
 
Az iScience folyóiratban megjelent tanulmány arra a kérdésre kereste a választ a mesterséges intelligenciával kapcsolatban: mennyire érti valójában a dolgát a ChatGPT?
 
Hamed sajtóközleményében kifejtette: az emberek sokasága beszél a ChatGPT-vel nap mint nap és az egészségüket illetően is kérdeznek tőle. Például: ezek a tüneteim vannak - rákos vagyok? Szívrohamom van? Kezelésre szorulok? Olvasd el: Mesterséges intelligencia teheti jobbá a sürgősségi ellátást?
 
A ChatGPT nem tud minket diagnosztizálni – figyelmeztetnek a szakértők
A ChatGPT nem tud minket diagnosztizálni – figyelmeztetnek a szakértők
 
Az atlantai Wellstar orvosa, dr. Andrew Thornton hangsúlyozta: bár a mesterséges intelligenciát és az internetet biztonságosan lehet használni egészségügyi információkhoz, soha nem szabad rájuk támaszkodni orvosi vészhelyzetekben és túl sok időt tölteni online kutatással.
 
Vészhelyzetben jobb hívni a mentőket és kórházba szállítatni magunkat – javasolta Thornton.
 
A mesterséges intelligencia-chatbot nem helyettesíti az orvost
 
A ChatGPT nem áll készen arra, hogy pontos orvosi tanácsokat adjon, annak ellenére, hogy az orvosi ismeretek egyes specifikus aspektusaiban ígéretesnek tűnik.
 
Tanulmánya során Hamed csapata érdekes felfedezést tett ezen aspektusokkal kapcsolatban, valamint bebizonyította: az eszköz nem képes hatékonyan diagnosztizálni a felhasználókat.
 
Amikor betegségekkel kapcsolatos kifejezéseket, vényköteles gyógyszereket és génekkel kapcsolatos információkat kellett azonosítani, a ChatGPT 88-97 százalékos pontossággal elvégezte a feladatot.
 
A mesterséges intelligencia felhasználói azonban gyakran egészségügyi útmutatást is várnak – nem csupán egészségügyi tényeket. A nagy nyelvi modell (LLM) itt kezdett el problémássá válni.
 
A betegségeket könnyű volt azonosítani, így a ChatGPT kiválónak bizonyult olyan betegségek azonosításában és előállításában, amelyek valójában ismertek az ontológiában  – jelezte Hamed.
 
„A történet ugyanaz volt a gyógyszerekkel és a génekkel, a tünetekkel kapcsolatban azonban nem. Ez meglehetősen érdekes volt, hiszen ennek a következményei valójában óriásiak” – mondta a szakember.
 
Küzd a lekérdezések összetettségével a ChatGPT
 
A ChatGPT küzdött a felhasználói lekérdezések összetettségével, amelyek homályos vagy hétköznapi nyelvet használtak a tünetek leírására.
 
Amikor a kérdések társalgó jellegűek voltak, a mesterséges intelligencia gyakran nem tudta pontosan összekapcsolni a tüneteket azok lehetséges orvosi okaival.
 
„A ChatGPT inkább barátságos és társaságkedvelő nyelvet használ, mert állítólag az átlagemberekkel kell kommunikálnia. Az orvosi szakirodalomban az emberek tulajdonneveket használnak. Az LLM nyilvánvalóan megpróbálja egyszerűsíteni ezeknek a tüneteknek a definícióját, mivel sokan tesznek fel ilyen kérdéseket, ezért elkezdte minimalizálni az orvosi nyelv formalitásait, hogy vonzó legyen ezen felhasználóknak” – magyarázta Hamed.
 
A tanulmányból kiderült: a mesterséges intelligencia vonakodott elismerni, ha nem tudta a helyes választ az egészségügyi kérdésekre, ami dr. Andrew Thornton szerint aggodalomra ad okot.
 
„Nagyon fontos, hogy a betegek megértsék: a ChatGPT nem fogja megmondani, mennyire magabiztos bizonyos információk bemutatásában. Úgy fogja bemutatni azokat, hogy nagyon magabiztosnak tűnjön abban, amit mond, s ezt ugyanúgy teszi majd a pontatlan információkkal, mint a pontos információkkal” – emelte ki az orvos.
 
Márpedig a meggyőző mesterséges intelligencia és az abba vetett bizalom jelentős egészségügyi kockázatokhoz vezethet – mutattak rá a szakemberek.
 
 
B.A.

 

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.