2024. 08. 05. - 08:35

Még kiteljesedése előtt összeomolhat a mesterséges intelligencia - ez az oka

Még kiteljesedése előtt összeomolhat a mesterséges intelligencia - ez az oka

A mesterséges intelligencia rendszerek összeomolhatnak, amint az internet egyre nagyobb része mesterséges intelligencia által készített tartalommal telik meg – figyelmeztettek a kutatók.

Értelmetlenné válhatnak a mesterséges intelligencia rendszerek – összeomolhatnak, amikor a világháló nagyobb része megtelik az MI által készített tartalommal – hívták fel a figyelmet a kutatók a Nature szaklapban megjelentetett tanulmányban.
 
A net egyre nagyobb részét az MI alkotja meg
 
Az utóbbi években igencsak megnőtt az érdeklődés az olyan szöveggeneráló rendszerek iránt, mint az OpenAI ChatGPT. Ez sokakat arra késztetett, hogy blogbejegyzéseket és más, az említett rendszerek által létrehozott tartalmat tegyenek közzé - és az internet egyre nagyobb részét a mesterséges intelligencia hozta létre. Olvasd el: Már megszületett az ember, aki 1000 évig él - robotok és mesterséges intelligencia segítségével
 
Az ilyen rendszereket gyártó vállalatok közül azonban sokan az internetről vett szöveget használnak a képzéshez. Ez olyan ciklushoz vezethet, amelyben ugyanazokat az MI-rendszereket tanítják a szövegkészítésre, amelyeket a szöveg előállításához használnak.
 
Még kiteljesedése előtt összeomolhat a mesterséges intelligencia
Még kiteljesedése előtt összeomolhat a mesterséges intelligencia
 
Ez azt eredményezheti, hogy ezek a mesterséges intelligencia eszközök gyorsan halandzsába és értelmetlenségbe fordulnak – figyelmeztetnek a kutatók egy új tanulmányban.
 
A „halott internet-elmélet" kapcsán általános aggodalom kezd kialakulni, ami azt sugallja: az internet egyre nagyobb része válik automatizálttá - ami egy ördögi kört jelenthet.
 
Egy idő után hülyeséget produkálhat a rendszer
 
A kutatás szerint elegendő mindössze néhány ciklus a tartalom generálásából, majd képzéséből, hogy ezek a rendszerek szó szerint hülyeségeket produkáljanak.
 
A kutatók felfedezték, hogy az egyik középkori építészetről szóló szöveggel tesztelt rendszernek mindössze kilenc generációra volt szüksége ehhez.
 
A koncepciót a szakemberek „modellösszeomlásként” említik: az MI-t olyan adatkészleteken tanítják, amelyeket szintén a mesterséges intelligencia hozott létre és „szennyezi” azok kimenetét. A kutatók szerint ez egyre elterjedtebbé válhat, mivel az MI-rendszereket egyre gyakrabban használják az interneten.
 
Emögött az áll, hogy amikor ezek a rendszerek adatokat állítanak elő, majd pedig azokra tanítják őket, az adatok kevésbé gyakori részei általában kimaradnak.
 
Emily Wenger kutató - aki nem a vizsgálatban egyébként nem vett részt -, egy, különböző kutyafajták képére kiképzett rendszer példáját használta fel: ha több golden retriever van az eredeti adatokban, akkor kiválogatja azokat, s ahogy halad a folyamat, a többi kutya végül teljesen kimarad – mielőtt a rendszer szétesik és csak butaságokat generál.
 
A kutatók megállapították: ugyanez a hatás a nagy nyelvi modellekkel, például a ChatGPT-vel és a Google Gemini-jével.
 
Ez nemcsak azért jelenthet problémát, mert a rendszerek idővel használhatatlanná válnak, hanem azért is, mert fokozatosan kevésbé lesznek változatosak a kimeneteik. Az adatok előállítása és újrahasznosítása során előfordulhat, hogy a rendszerek nem tükrözik a világ sokféleségét és a kisebb csoportok vagy kitekintések teljesen törlődnek.
 
„A problémát komolyan kell venni, ha fenn akarjuk tartani a webről leszedett, nagyszabású adatokból származó képzés előnyeit” – írták közleményükben a kutatók.
 
Ez azt is jelentheti, hogy azok a cégek, amelyek már szereztek adatokat rendszereik betanításához, előnyös helyzetbe kerülhetnek, mivel a korábban felvett adatokban több valódi emberi teljesítmény lesz.
 
 
B.A.

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.