2024. 07. 15. - 08:50
Orosz propagandát is kiválóan gyárt a mesterséges intelligencia
Kiderült egy kutatás eredménye, amely azt vizsgálta, mennyire képes visszamondani a nem hiteles információkat a mesterséges intelligencia. Sajnos újakat is gyárthat és nagyon kedveli az orosz propagandát.
Fogékonynak tűnnek az orosz propagandára a mesterséges intelligenciát alkalmazó programok – derült ki a New Guard szaklap által készített felmérésből.
Azon generatív MI-modellekről van szó, amelyek meghatározott adathalmazból készítenek újat.
A legtöbb alkalommal használt mesterséges intelligencia modellek harmada esetében azok többnyire megismétlik és kész tényként tálalják az orosz dezinformációkat, nem alkalmazva semmilyen forráskritikát – áll a felmérésben.
Orosz propagandát is kiválóan gyárt a mesterséges intelligencia
A kutatás rámutatott, hogy a mesterséges intelligencia csaknem 32 százalékban terjeszt Oroszországban megalkotott és célzottan félrevezető üzeneteket.
Ráadásul még megbízható forrásként állít be olyan oldalakat, amelyek az igaztalan híreket terjesztik.
Dezinformációk tömegével
A New Guard korábban is tájékozódott már erről a dezinformációs hálózatról, s ráleltek 167 weboldalra, amelyek helyi híroldalnak álcázva magukat állandóan hamis híreket terjesztenek, az orosz érdekeknek megfelelően – mindezt az Egyesült Államokbeli választások előtt.
Az elemzők attól tartanak, hogy Oroszország így még akár bele is avatkozhat az amerikai voksolásba.
A kutatók a piacon jelenlevő 10 leginkább használt chatbotot tesztelték, így az OpenAI ChatGPT-4-et, a You.com Smart Assistant-et, a Grokkot, aMicrosoft Copilotot, a Meta AI-t, a Google Geminit és a Perplexity válaszadó motort.
Kiadtak 570 feladatot a chatbotoknak, mindegyiknek 57-et kellett megoldania. A megoldások közül nagyjából 19 esetben hamis hír volt az alap.
Kiderült, hogy az 570 válaszból 152 volt hamis – 29 esetben a chatbotok ismételték a hamis állítást, de azért szóltak, hogy az téves is lehet. Ugyanakkor, 389 válaszban nem volt semmiféle nem igaz információ. Ezeknél a chatbot vagy nem adott választ – 144 esetben - , vagy pedig cáfolta az állítást – 245 esetben.
A modellek valós információi között voltak különbségek – de azt a kutatók nem mondták el, hogy melyik chatbot milyen eredményeket hozott, csak elküldték azokat az adott cégnek, aki fejlesztette a botot.
Nyugtalanító, amit művelnek
Aggodalomra ad ugyanakkor okot, hogy több chatbot maga is állított elő álhíreket, s nem hívta fel a figyelmet arra, hogy azok nem igazak. A hamis hírt újságcikkben tálalták.
A New Guard szerint fontos tudni, hogy ezek a chatbotok igen könnyen alkalmazhatók dezinformációs fegyverként.
B.A.