2024. 10. 09. - 09:25
Korrigálta a „notórius hazudozó” generatív MI-t a Microsoft?
A Microsoft állítja, hogy új eszköze képes korrigálni a generatív mesterséges intelligencia hallucinációit - a szakértők azonban óvatosságra intenek.
A generatív mesterséges intelligencia (GNMI) híresen hazug tud lenni - a Microsoft most állítja: van megoldása a problémára. Számos szakértő azonban némileg kétkedő maradt.
A Microsoft a közelmúltban mutatta be a Correction szolgáltatást, amely megpróbálja automatikusan felülvizsgálni a generatív mesterséges intelligencia által készített szöveget, amely valójában hibás.
A javítás először megjelöli az esetlegesen hibás szöveget – mondjuk egy vállalat negyedéves bevételi felhívásának összefoglalóját, amely valószínűleg tartalmaz nem helyes idézeteket –, majd a szöveget az igazság forrásával (pl. feltöltött átiratokkal) összehasonlítva ellenőrzi a tényeket.
Már elérhető a Microsoft-féle korrekció
A Microsoft Azure AI Content Safety API részeként elérhető javítás - egyelőre előnézetben - bármilyen szöveggeneráló mesterséges intelligencia modellel használható, beleértve a Meta's Llamát és az OpenAI GPT-4o-t is.
„A korrekciót egy új eljárás hajtja, amelyben kicsi és nagy nyelvi modelleket használnak a kimenetek és a földelő dokumentumok összehangolására” – mondta a Microsoft szóvivője a TechCrunch-nak.
„Reméljük, ez az új funkció támogatja a generatív mesterséges intelligencia készítőit és felhasználóit olyan területeken, mint az orvostudomány, ahol az alkalmazásfejlesztők a válaszok pontosságát fontosnak ítélik meg” – tette hozzá. Olvasd el: Hogyan formálja át a magyar piacot a GNMI?
Korrigálta a „notórius hazudozó” generatív MI-t a Microsoft?
A Google hasonló funkciót vezetett be 2024 nyarán a Vertex AI-ban, mesterséges intelligencia fejlesztői platformján, hogy lehetővé tegye az ügyfelek számára a modellek „földelését” külső szolgáltatók adatainak, saját adatkészleteik vagy a Google Kereső felhasználásával.
A szakértők azonban arra figyelmeztetnek: ezek a megalapozó megközelítések nem foglalkoznak a hallucinációk kiváltó okával.
Hogyan küszöbölik ki a GNMI okozta hallucinációt?
„A generatív mesterséges intelligencia okozta hallucinációk kiküszöbölése olyan, mint a hidrogén eltávolítása a vízből – mondta Os Keyes, a Washingtoni Egyetem PhD-jelöltje, a feltörekvő technológia etikai hatásainak tanulmányozója. - Ez a technológia működésének alapvető eleme.”
A szöveggeneráló modellek hallucinálnak, mert valójában nem „tudnak” semmit. Statisztikai rendszerekről van szó, amelyek egy sor szó mintázatát azonosítják és megjósolják, melyik szó következik a következő számtalan példa alapján, amelyre tanítják őket.
Ebből az következik, hogy egy modell válaszai nem válaszok, sokkal inkább pusztán előrejelzések arról, hogyan válaszolnának egy kérdésre, ha jelen lenne a képzésben.
Ennek következtében a modellek hajlamosak gyorsan és lazán játszani az igazsággal. Egy tanulmány kimutatta, hogy az OpenAI ChatGPT-je az esetek felében rosszul válaszol az orvosi kérdésekre.
A Microsoft megoldása egy pár kereszthivatkozás, másolásszerkesztő-szerű metamodell, amely a hallucinációk kiemelésére és átírására szolgál.
Az osztályozó modell a mesterséges intelligencia által generált szöveg esetlegesen helytelen, kitalált vagy irreleváns töredékeit (a hallucinációkat) keresi. Ha ilyeneket észlel, az osztályozó egy második modellben, egy nyelvi modellben „kötözködik”, amely megpróbálja kijavítani a hallucinációkat a meghatározott „alapdokumentumoknak” megfelelően.
„A korrekció jelentősen növelheti a mesterséges intelligencia által generált tartalmak megbízhatóságát, azzal, hogy segít az alkalmazásfejlesztőknek csökkenteni a felhasználók elégedetlenségét és a potenciális reputációs kockázatokat” - mondta a Microsoft szóvivője.
Hozzátette: fontos megjegyezni, hogy a földeltség-észlelés nem a „pontosság” kérdését oldja meg, hanem segít a generatív MI-kimenetek és a földelési dokumentumok összehangolásában.
Keyes-nek ugyanakkor kétségei vannak ezzel kapcsolatban.
„Azt mondták, csökkenthet bizonyos problémákat, de újakat is generál majd. Végül is a Correction hallucináció-észlelő könyvtára feltehetően képes hallucinálni is” – fogalmazott.
A Correction modellek hátterét kérve a szóvivő rámutatott a Microsoft kutatócsoportjának egy friss cikkére, amely a modellek gyártás előtti architektúráját írja le. A cikk azonban kihagyja a legfontosabb részleteket - például azt, hogy mely adatkészleteket használták a modellek betanításához.
Mike Cook, a Queen Mary Egyetem mesterséges intelligenciára szakosodott kutatója úgy érvelt, hogy még ha a korrekció a hirdetett módon működik is, azzal fenyeget, hogy súlyosbítja a mesterséges intelligencia körüli bizalmi és magyarázhatósági problémákat.
A szolgáltatás elkaphat néhány hibát, de hamis biztonságérzetet is adhat a felhasználóknak – a modellek gyakrabban gondolnak igazat, mint ahogyan az a valóságban van.
„A Microsoft, az OpenAI-hoz és a Google-hoz hasonlóan, létrehozta ezt a problémát, ahol a modellekre támaszkodnak olyan forgatókönyvekben, amelyekben gyakran tévednek. Amit a Microsoft most tesz, az a hiba megismétlése magasabb szinten. Tegyük fel, hogy ezzel a 90 százalékos biztonságról a 99 százalékos biztonságra jutunk – a probléma valójában soha nem ebben a 9 százalékban volt. Ez mindig a hibák 1 százalékában lesz, amit még nem észlelünk” – fogalmazott.
Cook hozzátette: van egy cinikus üzleti oldala is annak, ahogy a Microsoft a Correctiont csomagolja.
A funkció önmagában ingyenes, a hallucinációk észleléséhez szükséges „földalattiság-érzékelés” azonban csak havi 5000 „szövegrekordig” térítésmentes - 1000 szöveges rekord után 38 centbe kerül.
B.A.