2025. 10. 29. - 12:17
A mesterséges intelligencia szabályozása új szintre lépett
Az OpenAI új fejlesztése, a „Safeguard” modellek családja, forradalmasítja a mesterséges intelligencia biztonságát: mostantól a fejlesztők határozhatják meg, mit jelent a biztonság.
Az OpenAI újraírta a mesterséges intelligencia jövőjét. Ryan Daws, az Artificial Intelligence News újságírója számolt be róla, hogy a vállalat október végén bemutatta új „open-weight” biztonsági modelljeit, amelyek gyökeresen átalakítják, miként kezelik a fejlesztők a mesterséges intelligencia biztonsági korlátait. A „gpt-oss-safeguard” család – mely két fő modellből, a 120 milliárd és 20 milliárd paraméteres változatból áll – nemcsak nyílt forráskódú, hanem nyílt szemléletű is. Az OpenAI ezzel a lépéssel a biztonságot visszaadja azoknak, akik a technológiát építik.
Ez az új irány az Apache 2.0 licenc alatt érhető el, ami lehetővé teszi, hogy bárki szabadon módosítsa, fejlessze és integrálja a modelleket saját rendszereibe. A TechForge Media szerint a lépés igazi paradigmaváltás, hiszen a fejlesztők immár nem a központi platformokra támaszkodnak, hanem maguk dönthetnek arról, milyen etikai és biztonsági irányelvek szerint működjön az adott rendszer. A modell képes a fejlesztők által megadott szabályokat „értelmezni”, vagyis a mesterséges intelligencia a konkrét környezethez és feladathoz igazítja saját működését, ez pedig eddig elképzelhetetlen rugalmasságot hoz.
A legnagyobb újítás azonban a teljes átláthatóság. Az OpenAI új modellje képes megmutatni, hogyan hoz döntéseket, egyfajta gondolatmenet-analízis révén. A fejlesztők így „beláthatnak a motorháztető alá”, és pontosan nyomon követhetik, miért kategorizál a modell bizonyos tartalmakat biztonságosnak vagy kockázatosnak. Ez az eddigi „fekete doboz” megközelítés végét jelenti és elhozza a valóban felelősségteljes mesterséges intelligencia korát.

Forradalom az MI világában: a fejlesztők végre saját szabályokat alkothatnak!
A rugalmasság sem marad el: mivel a biztonsági szabályok nincsenek véglegesen beégetve a modellbe, a fejlesztők valós időben módosíthatják az irányelveket, újraindítás vagy újratanítás nélkül. Ez különösen hasznos lehet azoknak a vállalatoknak, amelyek gyorsan változó környezetben, például tartalommoderációban, pénzügyi rendszerekben vagy oktatási felületeken dolgoznak. Az OpenAI szerint ez az agilitás az egyik legfontosabb fejlesztési irány és várhatóan 2026-ban a legtöbb nyílt mesterséges intelligencia-platform is átveszi a megközelítést.
Mindezzel az OpenAI gyakorlatilag demokratizálja a mesterséges intelligencia biztonságot. A fejlesztők mostantól nem csupán használói, hanem alakítói is lehetnek a rendszer etikai alapelveinek. A nyílt, bizalomra épülő ökoszisztéma ezzel új korszakot nyit: a mesterséges intelligencia nemcsak hatékonyabb, de átláthatóbb és emberközelibb is lesz.

