2021. 08. 12. - 09:30

Mesterséges intelligencia - Veszélyes bűncselekményeket azonosítana a Facebook

Mesterséges intelligencia - Veszélyes bűncselekményeket azonosítana a Facebook

A jövő legveszélyesebb bűncselekményeit detektálná a Facebook, a mesterséges intelligenciával együtt, amelyet a megalkotásukra használnak.

Meglepő újdonsággal készül a Facebook: ún. fordított mérnöki technikával dolgoznak. Új fejlesztésük olyan, mintha felismernénk egy autó alkatrészeit a hangjuk alapján, akkor is, ha az egy új kocsi és a hangját sohasem hallhattuk.
 
A Facebook által kifejlesztett modell megmondja, mikor használ egy videó hamis tartalmat, mélyhamisítás-e a felvétel (ún. deepfake), sőt, azt is képes azonosítani, milyen algoritmust alkalmaztak, hogy létrehozzák azt.
 
A deepfake fogalma olyan videókat takar, amelyeket mesterséges intelligencia és mély tanulás - a számítógépek kiképzésére használt algoritmikus tanulási módszer – használatával alkotnak meg. Céljuk, hogy egy ember „szájába adjanak” dolgokat, amelyeket sosem mondott. Úgy jelenítenek meg személyeket, mintha valós videó készült volna róluk.
 
Azonosítja a deepfake-et az azt létrehozó algoritmus alapján a Facebook új fejlesztése
Azonosítja a deepfake-et az azt létrehozó algoritmus alapján a Facebook új fejlesztése
 
A deepfake figyelemreméltó példája Richard Nixon egykori amerikai elnök Apollo 11-el kapcsolatos beszédének manipulált videója, vagy az a felvétel, amelyen Barack Obama megsérti Donald Trumpot.
 
S bár jelenleg ezek a videók még viszonylag ártalmatlanok, szakértők szerint a jövő legnagyobb bűncselekményeit lehetne elkövetni a segítségükkel.
 
A deepfake felderítése azon alapul, hogy a kép valódi vagy sem, a kutatók számára rendelkezésre álló információk mennyisége azonban korlátozott - potenciális bemeneti-kimeneti párokra támaszkodnak, vagy olyan hardverinformációkra, amelyek esetleg nem állnak rendelkezésre a való világban.
 
A Facebook új eljárása a mesterségesen intelligens modell mögötti, egyedi minták észlelésén alapul. A videót vagy a képet keresztülfuttatják egy hálózaton, hogy érzékeljék az „ujjlenyomatokat” a képhibákon, amikor a mélyhamisítás történt. Ilyenek például a zajos képpontok vagy aszimmetrikus jellemzők - amelyek felhasználhatók a „hiperparaméterek” megtalálására.
 
Ezek megtalálása létfontosságú, mivel a deepfake szoftver könnyen testreszabható – azaz, lehetővé teszi, hogy a rosszindulatú személyek elrejtsék magukat.
 
A Facebook állítja: ma már egyetlen álló képből meg tudja állapítani, hogy egy felvétel hamisítvány, azzal pedig, hogy azonosítja, mely neurális hálózatot használták a létrehozásához, könnyen megtalálhatják az azt megalkotó személyt vagy csoportot is.
 
Persze, nem valószínű, hogy ezzel véget ér a deepfake-csata, mivel a technológia még mindig alkalmazkodik - tudásuk lehetővé teszi a rosszindulatú személyek számára, hogy ehhez igazodva tervezzenek. Az új kutatás azonban segít a mérnököknek alaposabban megvizsgálni a jelenlegi, mélyreható eseményeket, s tovább tökéletesíti a hamis videók és képek észlelésének módjait.
 
Olvasd el ezt is: 
 
L.A.

 

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.