2021. 10. 18. - 09:00

Mesterséges intelligencia segít, hogy tudjuk, mit hová tettünk?

Mesterséges intelligencia segít, hogy tudjuk, mit hová tettünk?

A Facebook segít a mesterséges intelligenciának egocentrikus képet alkotni az életről – a hosszútávú kutatás célja megválaszolni a gyakori kérdést: hová tettem a dolgaimat?

Hosszútávú kutatás vette kezdetét a Facebook vezetésével, melynek célja, hogy segítsen megválaszolni egy igen sűrűn feltett kérdést: hova a csudába tettük el ezt vagy azt a dolgot?
 
Az Ego4D projekt azon igyekszik javítani, ahogyan a mesterséges intelligencia (MI) megérti a világot, mégpedig egyes szám első személyben, „egocentrikus” szemszögből.
 
A kutatók abban bíznak, hogy mindez hasznosabbá tehet egyes eszközöket, így például a kiterjesztett valóság (AR) szemüveget. Lehetővé teheti például számukra, hogy könnyebben megtaláljuk a lakásban valahová letett kulcsainkat. Olvasd el: Megtalálja az elveszett tárgyakat egy robot
 
mesterseges_szabadidos_tevekenyseg_1
 
Egy blog-bejegyzésében a Facebook azzal érvel: „a következő generációs mesterséges intelligenciának tanulnia kell azokból a videókból, amelyek a cselekvés középpontjából mutatják be a világot”.
 
Ha ugyanis „egocentrikus” szemszögből nézi világunkat, az olyan, magukkal ragadó eszközök, mint az AR szemüveg vagy a virtuális valóság headset, hamarosan az okostelefonokok hasznosságával vetekedhetnek.
 
A Facebook egyébként régóta érdeklődik a VR iránt - tulajdonában van a fejhallgató-gyártó Oculus vállalat, ezen keresztül közelebbről szemügyre veheti a lehetőségeket. Várhatóan teljes értékű AR-szemüveget adnak majd ki, azonban a közelmúltban a Facebook a BBC-nek azt nyilatkozta: mindez még fejlesztés alatt áll.
 
Az Ego4D projekt lényegében közös erőfeszítés egy „hatalmas léptékű egocentrikus videó adathalmaz” összegyűjtésére, mely segíti a számítógépes látás és a mesterséges intelligencia-rendszerek fejlesztését – s ezzel azt is, hogy a felhasználók egocentrikus szemszögből lépjenek kapcsolatba a világgal.
 
A projekt kilenc ország 13 egyetemét és laboratóriumát tömöríti egy konzorcium formájában.
 
Az adathalmaz pedig jelenleg 3025 órányi, mindennapi tevékenységet bemutató videót tartalmaz, amely több száz forgatókönyvet foglal magába - háztartási, szabadtéri, munkahelyi, szabadidős tevékenységeket például, s ezeket 855 egyedi kamera vette fel.
 
Jelenleg a számítógépes látás algoritmusait egy harmadik személy szemszögéből rögzített képek és videók nagy adathalmazaival tanítják. Olvasd el: Drónok és robotok végezhetik a házimunkát 2040-re
 
„A következő generációs mesterséges intelligencia-rendszereknek teljesen más típusú adatokból kell tanulniuk: olyan videókból, amelyek a világot a cselekvés középpontjából mutatják, nem pedig másik szemszögből” - tudatta Kristen Grauman, a Facebook vezető kutatója.
 
Az adatkészletek 2021 novemberétől lesznek elérhetők a projektben résztvevő kutatók számára.
 
A hasznosabb MI-asszisztensek többek között olyan kérdések megválaszolásában segítenek majd a Facebook szerint, mint például: mikor mi történt? (vagyis hol hagytam a kulcsomat?); mit kell csinálnom legközelebb? (vagyis adtam már sót a tésztához az ételkészítés közben?); ki mit mondott és mikor? (vagyis mi volt az óra fő témája?); ki beszél kivel? (vagyis segíts jobban hallani a hozzám beszélő személyt a zajos étteremben).
 
 
L.A.

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.