2024. 11. 28. - 08:42

Neurális hálózatok új módjával próbálják megérteni a mesterséges intelligenciát

Neurális hálózatok új módjával próbálják megérteni a mesterséges intelligenciát

Érthetőbbé tehető a mesterséges intelligencia a neurális hálózatok felépítésének új módjával – tudatták a Massachusetts-i Technológiai Intézet (MIT) kutatói.

A mesterséges intelligencia érthetőbbé tehető a neurális hálózatok felépsítésének új módjával. A mesterséges neuronok neurális hálózatokban történő működésének módosítása megkönnyítheti a megfejtését – állítják a Massachusetts-i Technológiai Intézet (Massachusetts Institute of Technology – MIT) kutatói.
 
Az egyszerűsített megközelítés megkönnyíti annak megfigyelését, miként állítják elő a neurális hálózatok az általuk termelt kimeneteket.
 
Kifürkészhetetlen mesterséges neuronok
 
A mesterséges neuronok – a mély neurális hálózatok alapvető építőkövei – évtizedek óta szinte változatlanok maradtak. Bár ezek a hálózatok adják a modern mesterséges intelligencia erejét, egyben kifürkészhetetlenek is.
 
A létező mesterséges neuronok - amelyeket olyan, nagy nyelvi modellekben használnak, mint a GPT4 -, úgy működnek, hogy nagyszámú bemenetet vesznek fel, összeadják őket és az összeget egy másik matematikai művelettel konvertálják kimenetté a neuronon belül. Olvasd el: Fényből készült neurális hálózatok a fenntartható gépi tanulásért?
 
Neurális hálózatok új módjával próbálják megérteni a mesterséges intelligenciát
Neurális hálózatok új módjával próbálják megérteni a mesterséges intelligenciát
 
Az ilyen neuronok kombinációi neurális hálózatokat alkotnak, kombinált működésüket nehéz lehet dekódolni. A neuronok kombinálásának új módja azonban egy kicsit másképp működik.
 
A meglévő neuronok összetettsége egyrészt leegyszerűsödik, másrészt a neuronokon kívülre kerül.
 
Belül az új neuronok egyszerűen összegzik a bemeneteiket és kimenetet állítanak elő - anélkül, hogy extra rejtett műveletekre lenne szükség. Az ilyen neuronok hálózatait Kolmogorov-Arnold hálózatoknak (KAN) nevezik, az azokat inspiráló orosz matematikusok után.
 
Az ígéretes Kolmogorov-Arnold hálózatok
 
Az MIT kutatói által vezetett csoport részletesen tanulmányozta az egyszerűsítést, amely megkönnyítheti annak megértését, hogy a neurális hálózatok miért állítanak elő bizonyos kimeneteket. Segíthet a döntéseik ellenőrzésében és az elfogultság vizsgálatát is könnyíti.
 
Az előzetes bizonyítékok arra is utalnak, hogy a KAN-ok nagyobbá válásával gyorsabban növekszik a pontosságuk, mint a hagyományos neuronokból épített hálózatoké.
 
„Érdekes munka. Szép, hogy az emberek megpróbálják alapjaiban újragondolni ezen hálózatok kialakítását” - fogalmazott Andrew Wilson, aki a gépi tanulás alapjait tanulmányozza a New York-i Egyetemen.
 
A Kolmogorov-Arnold hálózatok alapelemeit valójában már az 1990-es években javasolták - a kutatók folyamatosan építették az ilyen hálózatok egyszerű változatait.
 
A MIT által vezetett csapat azonban továbbvitte az ötletet, bemutatva, hogyan lehet nagyobb KAN-okat építeni és betanítani, empirikus teszteket végezni rajtuk, valamint néhány KAN-t elemezni, hogy bemutassák, hogyan tehető értelmezhetővé problémamegoldó képességük az emberek számára.
 
„Újraélesztettük ezt az ötletet, remélhetőleg az értelmezhetőség miatt… többé nem kell azt gondolnunk, hogy a neurális hálózatok fekete dobozok” - mondta Ziming Liu, a csapat tagja, PhD hallgató Max Tegmark laboratóriumában az MIT-n.
 
Bár ez még a munka korai szakasza, a csapat Kolmogorov-Arnold hálózatokon végzett munkája igencsak figyelemfelkeltő.
 
Létrejöttek GitHub oldalak is, amelyek bemutatják, hogyan kell használni a KAN-okat számtalan alkalmazáshoz, például képfelismeréshez és folyadékdinamikai problémák megoldásához.
 
A cikket folytatjuk.
 
 
B.A.

 

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.