2024. 08. 26. - 10:05
Veszélyes lehet: átírta saját kódját a mesterséges intelligencia, mert nem volt ideje gondolkodni
Megdöbbentő dolgot művelt egy kísérleti mesterséges intelligencia: átírta a saját kódját, azért, hogy legyen elég ideje gondolkodni.
Adott időt magának gondolkodni egy új kísérleti mesterséges intelligencia, azzal, hogy átírta a saját kódját. Az AI Scientist (MI tudós) nevű mesterséges intelligenciát egy japán kutatócsoport hozta létre, az British Columbia és az Oxford egyetemek közreműködésével.
Ez a mesterséges intelligencia hasonló a ChatGPT-hez.
A kísérlet során a kutatók azt szerették volna elérni, hogy a szoftver elméleti tudományos kérdésekre keressen választ.
Az AI Scientist elvileg végigvitte a tudományos kutatás teljes életciklusát – talált új és érdekes kutatási területeket, s ezekhez innovatív megoldási módokat is. Olvasd el: Botrány - Gond nélkül átment a vizsgán a ChatGPT-vel írt dolgozatok többsége
Veszélyes lehet: átírta saját kódját a mesterséges intelligencia, mert nem volt ideje gondolkodni
Képes volt hipotetikus kísérleteket végezni, következtetéseket levonni azokból, majd a végén össze is foglalta egy tanulmány keretében az egészet.
Megdöbbentően önállósította magát a mesterséges intelligencia
Bár az AI Scientist óriási horderejű eredményeket nem mutatott, a kutatók felfigyeltek egy nagyon érdekes dologra a munkájával kapcsolatban.
Egyszer például a mesterséges intelligencia alkalommal elrontotta saját magát, mivel írt egy kódot, melyben elindította a saját szoftverét - ezzel végtelen újraindulási hurokba juttatva a teljes rendszert.
Olyan is előfordult a kísérlet során, hogy túl sok ideig tartott, míg az MI által kitalált kísérlet kódja lefutott, s ezzel a mesterséges intelligencia a saját programozói által adott időkorlátba ütközött.
Mindezt úgy reagálta le, hogy a nem általa írt kódot optimalizálta gyorsabb futásra, hanem belenyúlt a saját programjába és átírta az időkorlátot.
A tanulmányban a kutatók ezzel kapcsolatban hívták fel a figyelmet arra, hogy a mesterséges intelligencia önállósodásának igenis reális a veszélye.
Még a jelenlegi fejlettsége mellett sem veszélytelen ugyanis, ha az MI képes felügyelet és ellenőrzés nélkül írni, futtatni, módosítani kódokat, még ha az a sajátja is.
A japán szakértők szerint amennyiben korlátozások nélkül fut egy mesterséges intelligencia, nem a külvilágtól elszigetelve, képes – anélkül, hogy ez lenne a célja - rosszindulatú kódokat alkotni, vagy online infrastruktúra működését megzavarni, ami nagyon komoly bajokat okozna.
B.A.