Tech
A mesterséges intelligencia használatának is vannak kockázatai a vállalatok számára
A biztonságtechnikai szoftvermegoldások kutatói a közleményben arra hívják fel a figyelmet, hogy a nagy nyelvi modellek (LLM), például a ChatGPT használatakor érzékeny adatokat oszthatnak meg a felhasználók a nemzetközi nagyvállalatokkal
A rendszerek ugyanis az online szövegek felhasználásával hatékonyan képesek értelmezni és megválaszolni a felhasználók kérdéseit, és ezért lehet, hogy míg az egyik cég kifejezetten támogatja, a másik megtiltja a Chat GPT használatát a munkahelyi eszközökön.
Felhívták a figyelmet arra is, hogy amikor egy chatbotnak kérdést tesznek fel, a beírt adatok nyilvánossá válnak. Ez nem jelenti azt, hogy a rendszerek azonnal felhasználnák a megszerzett információt a másoknak adott válaszokhoz, de az LLM szolgáltató vagy partnerei hozzáférhetnek az adatokhoz, és beépíthetik azokat a technológia következő verzióiba.
Ugyanakkor az OpenAI, a ChatGPT mögött álló vállalat például már bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a felhasználói adatokat az OpenAI mesterséges intelligencia modelljeinek tanítására és fejlesztésére használják fel, s így a felhasználók nagyobb kontrollal rendelkeznek az adataik felett. Az szakértők szerint ezért az első lépés mindig legyen a csevegési előzmények kikapcsolása, amikor alkalmazottként olyan eszközöket használ valaki, mint a ChatGPT.
Közölték azonban azt is, hogy ha még ki is kapcsolja a felhasználó a csevegési előzményeket, a chatbot külső szerverei minden prompt adatot tárolnak, ezáltal fennáll a veszélye annak, hogy hackerek jogosulatlanul érik el az információkat. Technikai hibák esetén pedig lehetséges, hogy illetéktelenek hozzáférhetnek a chatbot felhasználók adataihoz, ahogyan az például 2023 márciusában is történt, amikor a ChatGPT elismerte: pár óráig egyes felhasználók láthatták más aktív felhasználók kereszt- és vezetéknevét, e-mail címét, fizetési címét, a bankkártya utolsó négy számjegyét és lejárati dátumát, a teljes kártyaszámok azonban egyetlen pillanatban sem voltak nyilvánosak.
A közlemény idézi Csizmazia-Darab Istvánt, az ESET termékeit forgalmazó Sicontact Kft. kiberbiztonsági szakértőjét, aki elmondta: gyakori hiba, hogy a munkavállalók akaratlanul is érzékeny információkat osztanak meg a vállalati ügyfelekről. Éppen ezért mindig érdemes a legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel – mondta.
Mivel a chatbotok hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására, kockázatos az is, ha átmásolják a dokumentumokat az intelligens rendszerekbe. Az ESET szakértői ezért az ajánlják a vállalatoknak, hogy szigorúan szabályozzák a bizalmas dokumentumok kezelését, és korlátozzák a hozzáférést az iratokhoz.