2024. 12. 13. - 08:40
Már felejteni tanítják a mesterséges intelligenciát, kerülve a bajt
A kutatók újabban felejteni tanítják a mesterséges intellugencia-modelleket, mivel ha rossz adatokat sajátít el, az rendkívül félrevezető lehet.
Felejteni tanítják a mesterséges intelligenciát a kutatók.
A Tokiói Tudományegyetem (TUS) szakemberei olyan módszert fejlesztettek ki, amely lehetővé teszi a nagyméretű mesterséges intelligencia modellek számára, hogy szelektíven „elfelejtsenek” bizonyos adatosztályokat.
A mesterséges intelligencia fejlődése kétségtelenül olyan eszközöket biztosított, amelyek képesek forradalmasítani különféle területeket - az egészségügytől az autonóm vezetésig. A technológia fejlődésével azonban az egyre bonyolultabb, ahogyan az etikai megfontolások is lényegesek.
A nagyszabású, előre betanított mesterséges intelligencia rendszerek - például az OpenAI ChatGPT és a CLIP (Contrastive Language–Image Pre-training) - paradigmája átformálta a gépekkel szemben támasztott elvárásokat.
Ezek a rendkívül általános modellek képesek a feladatok széles skáláját egyenletes pontossággal kezelni. Széles körben elterjedtek professzionális és személyes használatra is.
Az MI-modellek sokoldalúságának ára van
Az efféle sokoldalúságnak azonban borsos ára van. Ezeknek a modelleknek a betanítása és működtetése hatalmas mennyiségű energiát és időt igényel, ami fenntarthatósági aggályokat vet fel, valamint a szabványos számítógépeknél lényegesen drágább csúcstechnológiás hardvert igényel.
A problémákat súlyosbítja, hogy az általános tendenciák hátráltathatják az MI-modellek hatékonyságát, amennyiben konkrét feladatokra alkalmazzák őket. Olvasd el: Kiteljesedése előtt összeomolhat a mesterséges intelligencia - ez az oka
Már felejteni tanítják a mesterséges intelligenciát, kerülve a bajt
„A gyakorlati alkalmazásokban ritkán van szükség mindenféle objektumosztály osztályozására. Például egy autonóm vezetési rendszerben elegendő lenne felismerni az objektumok korlátozott osztályait, így az autókat, a gyalogosokat és a közlekedési táblákat” – magyarázta Go Irie docens, a kutatás vezetője.
„Nem kellene felismerni az élelmiszereket, bútorokat vagy állatfajokat. Az elismerésre nem szoruló osztályok megtartása csökkentheti az általános besorolási pontosságot, valamint olyan működési hátrányokat okozhat, mint például a számítási erőforrások pazarlása és az információszivárgás kockázata” - tette hozzá a kutató.
Megoldás a szükségtelen információk elfelejtése
A lehetséges megoldás a redundáns vagy szükségtelen információk „elfelejtésére” alkalmas képzési modellekben rejlik – a folyamataik egyszerűsítése, hogy kizárólag a szükségesre összpontosítsanak.
Bár néhány létező módszer már kielégíti ezt az igényt, hajlamosak a „fehér doboz” megközelítést feltételezni, melyben a felhasználók hozzáférhetnek a modell belső architektúrájához és paramétereihez. Gyakran azonban ők nem kapnak ilyen láthatóságot.
A „fekete dobozos” mesterséges intelligencia rendszerek, amelyek gyakoribbak a kereskedelmi és etikai megszorítások miatt, elrejtik belső mechanizmusaikat, így a hagyományos felejtési technikák nem használhatók.
A kutatók ezen hiányosság megszüntetése érdekében a derivatíva nélküli optimalizáláshoz fordultak – ez a megközelítés elkerüli a modell hozzáférhetetlen belső működésére való hagyatkozást.
Az MI-modellek és a feladatspecifikus precizitás
Technikai találékonyságán túl ez az innováció jelentős potenciált rejt magában a valós alkalmazások terén, ahol a feladatspecifikus precizitás a legfontosabb.
A speciális feladatok modelljeinek leegyszerűsítése gyorsabbá, erőforrás-hatékonyabbá teheti azokat és kevésbé erős eszközökön is működhet, ami felgyorsítja a mesterséges intelligencia alkalmazását azokon a területeken, amelyeket korábban a szakemberek kivitelezhetetlennek tartottak.
Egy másik kulcsfontosságú felhasználási terület a képalkotás, ahol a vizuális kontextus teljes kategóriáinak elfelejtése megakadályozhatja, hogy a modellek véletlenül nemkívánatos vagy káros tartalmat hozzanak létre - legyen szó sértő tartalomról vagy félretájékoztatásról.
A legfontosabb azonban talán az, hogy ez a módszer megoldja a mesterséges intelligencia egyik legnagyobb etikai problémáját: a magánélet védelmét.
Szelektív felejtés a mesterséges intelligencia-modellekben
Az MI-modelleket - különösen a nagyméretűeket - gyakran olyan hatalmas adatkészletekre képezik, amelyek véletlenül érzékeny vagy elavult információkat tartalmazhatnak.
Az ilyen adatok eltávolítására irányuló kérések – különösen az „elfeledtetéshez való jogot” hirdető törvények fényében – jelentős kihívásokat jelentenek.
A teljes modellek átképzése a problémás adatok kizárása érdekében költséges és időigényes, ennek ellenére a kezelés nélküli kockázatok messzemenő következményekkel járhatnak.
„Egy nagyszabású modell átképzése óriási mennyiségű energiát emészt fel" – jegyezte meg Irie docens.
„A „szelektív felejtés” avagy a machine unlearning (gépi „nemtanulás”) hatékony megoldást jelenthet erre a problémára.
Ezek az adatvédelemre összpontosító alkalmazások különösen fontosak az olyan nagy jelentőségű iparágakban, mint az egészségügy és a pénzügy, ahol az érzékeny adatok központi szerepet töltenek be a műveletekben.
Ahogy a mesterséges intelligencia fejlesztéséért folytatott globális verseny felgyorsul, a Tokiói Tudományos Egyetem feketedoboz-feledtetési megközelítése fontos utat vázol fel előre – nemcsak a technológia alkalmazkodóbbá és hatékonyabbá tételével, hanem a felhasználók számára jelentős biztosítékokkal is.
Bár a visszaélés lehetősége továbbra is fennáll, az olyan módszerek, mint a szelektív felejtés, azt mutatják, hogy a kutatók proaktívan kezelik mind az etikai, mind a gyakorlati kihívásokat.
B.A.