2024. 11. 20. - 09:40
Generatív MI: a Gemini chatbot már meglepő dolgokra is emlékszik
Meglepő dolgokra is emlékszik mostantól a Google Gemini chatbotja: megjegyzi például a munkákkal és személyes preferenciáinkkal kapcsolatos információkat.
Már meglepő memóriával is rendelkezik a generatív MI-vel dolgozó Google Gemini chatbot: mostantól képes megjegyezni például az életünkkel, munkánkkal ls személyes preferenciáinkkal kapcsolatos információkat – írta meg a techcrunch.com.
Amint azt az X-en - és a Google hivatalos fiókjában – is megjelent hirdetések jelezték, a memória funkció bizonyos Gemini-felhasználók esetében bekapcsolt.
A generatív MI-t használó ChatGPT memóriájához hasonlóan a Gemini is kontextust ad az aktuális beszélgetéshez.
Például mondjuk neki, hogy emlékezzen az általunk kedvelt ételekre, s amikor legközelebb étteremajánlatot kérünk a chatbottól, a mi ízlésünkhöz szabhatja a javaslatait. Olvasd el: Mire számíthatunk a generatív MI terjedésével?
Generatív MI: a Gemini chatbot már meglepő dolgokra is emlékszik
Ez a memória a Google havi 20 dolláros Google One AI Premium előfizetői számára érhető el és az iOS és Android rendszerű Gemini alkalmazásokhoz még nem jutott el, csupán a webes klienshez.
A Gemini felhasználói felületen a Google néhány példát mutat a potenciálisan hasznos alapozó emlékekre.
Például: „Használj egyszerű nyelvezetet és kerüld a zsargont”, „Csak JavaScriptben tudok kódot írni” vagy „az utazás megtervezésekor vedd figyelembe a napi költséget”.
A cég megjegyzi, hogy a funkció, amely egyelőre csak az angol nyelvű promptokat támogatja, bármikor kikapcsolható – de az emlékeket a kézi törlésig tárolják.
Ugyanakkor, a generatív MI-vel dolgozó Gemini emlékeit nem modellképzésre használják.
„Az elmentett adatait soha nem osztják meg és nem használják fel a modell betanításához” – szögezte le a Google szóvivője.
A memóriafunkciók, például a ChatGPT-k és a Gemini-k kihasználhatók, ha nincsenek gondosan kialakítva védőkorlátokkal.
Az év elején egy biztonsági kutató megállapította, hogy a hackerek titokban „hamis” memóriákat helyezhetnek el a ChatGPT-ben, hogy hatékonyan és örökre ellopják a felhasználó adatait – tudatta a techcrunch.com.
B.A.