Az elmúlt időszakban egyre több figyelem irányul a mesterséges intelligencia (AI) eszközök, mint például a ChatGPT munkahelyi használatának kérdéseire. Ezek az eszközök jelentős produktivitás növekedést és időmegtakarítást ígérnek, így egyre több munkavállaló építi be őket a napi munkafolyamatokba. Azonban az ESET kiberbiztonsági szakértői szerint fontos, hogy mielőtt elkezdjük használni ezeket az AI eszközöket, meg kell tanulnunk biztonságosan, adataink veszélyeztetése nélkül dolgozni ezekkel a rendszerekkel.
Az AI eszközök segíthetnek ötletek kidolgozásában, szövegek átfogalmazásában, vagy akár üzleti stratégiák megalkotásában. Ugyanakkor, a használatuk során felmerülő adatvédelmi aggályokat sem szabad figyelmen kívül hagyni. Az ESET kutatói szerint különösen aggasztó, hogy az AI eszközök, mint a ChatGPT használatakor érzékeny adatok kerülhetnek nemzetközi nagyvállalatok kezébe.
A nagy nyelvi modellek (LLM), mint a ChatGPT, hatékonyan képesek értelmezni és válaszolni a felhasználói kérdésekre, de minden interakció során fennáll a veszély, hogy érzékeny információkat osztunk meg. Egyes vállalatok ezért korlátozzák vagy tiltják ezeknek az eszközöknek a használatát – az ESET kutatói erről is beszélgettek Hackfelmetszők – Veled is megtörténhet c. podcastjukban.
Fontos megérteni, hogy amint egy chatbothoz kérdést intézünk, a megadott információk nyilvánosak lesznek. Ez azonban nem azt jelenti, hogy ezeket az adatokat azonnal felhasználják más felhasználók kérdéseinek megválaszolására.
A nagy nyelvi modelleket (LLM) üzemeltető cégek és partnereik azonban hozzáférhetnek ezekhez az információkhoz, és felhasználhatják azokat a technológiai fejlesztések során. Az OpenAI – a ChatGPT fejlesztője – lehetővé tette a felhasználók számára, hogy kikapcsolják a csevegési előzményeket, ezzel megakadályozva, hogy az adatokat az AI modellek tanításához használják. Ezáltal a felhasználók nagyobb kontrollt gyakorolhatnak adataik felett. Mindig ajánlott a csevegési előzmények kikapcsolása, különösen akkor, ha munkahelyi környezetben használjuk az ilyen eszközöket.
Ugyanakkor, még ha ki is kapcsoljuk a csevegési előzményeket, a chatbotokat üzemeltető külső szerverek továbbra is tárolják a beküldött adatokat. Ez azt jelenti, hogy fennáll a kockázata annak, hogy hackerek jogtalanul hozzáférhetnek ezekhez az információkhoz. Technikai problémák esetén pedig előfordulhat, hogy illetéktelen személyek férhetnek hozzá a chatbot felhasználóinak adataihoz, ahogyan ez 2023 márciusában meg is történt.
Hogyan használhatjuk munkavállalóként biztonságosan az olyan platformokat, mint a ChatGPT?
Az ESET szakértői összegyűjtötték a leggyakrabban előforduló problémákat, és elmondják, hogyan kerülhetőek el a kockázatok.
1. Ügyféladatok kezelése AI eszközökkel
Az egyik gyakori hiba, amit a munkavállalók elkövetnek az AI eszközök használatakor, az a céges ügyfelek vagy páciensek adatainak megosztása. Például egy orvos esetében, aki a beteg adatait és saját orvosi jegyzeteit írja be a chatbotba, hogy az AI segítségével elkészítsen egy levelet a páciens biztosítótársaságának, vagy egy marketinges, aki CRM rendszerből ügyféladatokat tölt fel célzott hírlevelek generálásához.
A munkavállalóknak fontos, hogy anonimizálják az adatokat, mielőtt azokat chatbotokba írják. Az ügyféladatok védelme érdekében minden érzékeny információt, mint a nevek, címek, számlaszámok, ki kell hagyni a bevitt szövegekből. A legbiztonságosabb megközelítés az, ha kerüljük a személyes adatok használatát, és általános kérdéseket teszünk fel.
2. Bizalmas dokumentumok kezelése chatbotokkal
A chatbotok hasznosak lehetnek adatok gyors összegzésére vagy dokumentumok, prezentációk és jelentések létrehozására. Azonban a dokumentumok feltöltése AI rendszerekbe, mint a ChatGPT, kockázatot jelenthet a bennük tárolt vállalati vagy ügyféladatok számára. Az adatok egyszerű átmásolása és az AI nyújtotta gyors összefoglalók készítése csábító lehet, de adatbiztonság szempontjából ez egy kockázatos módszer.
Fontos, hogy a vállalatok szigorú irányelveket alkalmazzanak a bizalmas dokumentumok kezelésére, és korlátozzák azokhoz való hozzáférést. Az alkalmazottaknak manuálisan kell átnézniük a dokumentumokat, mielőtt chatbotok segítségét kérnék, így biztosítva, hogy az érzékeny információkat, mint nevek és kapcsolattartási adatok, anonimizálásra kerüljenek.
3. Vállalati adatok védelme AI kérések során
Gondoljunk csak arra az esetre, amikor egy vállalat a ChatGPT segítségét kéri az időmenedzsment vagy munkafolyamatok optimalizálásában, és értékes vállalati információkat ad meg a chatbotnak. Az ilyen típusú érzékeny adatok megosztása, akár véletlenül is, jogosulatlan hozzáféréshez vagy bizalmas információk kiszivárgásához vezethet.
A megoldás az, hogy a munkavállalók anonimizálják a promptokat. Soha nem szabad megadni személyes vagy vállalati adatokat, mint nevek vagy pénzügyi információk. A vállalatoknak érdemes standardizált, anonim kéréseket készíteni, amelyeket az alkalmazottak használhatnak, például: “Képzelje el, hogy xy pozícióban dolgozik az xy vállalatnál. Hogyan javíthatná a heti munkafolyamatot [egy adott pozícióban], főleg [egy adott feladatra] összpontosítva?”
Az AI eszközök nélkülözhetetlen részét képezik a modern munkavégzésnek. A mesterséges intelligencia és gépi tanulás területén történő folyamatos fejlődés mellett a vállalatoknak alkalmazkodniuk kell a trendekhez. Az ESET szakértői szerint minden munkavállalónak, az adatbiztonsági szakértőktől az IT generalistákig, tudnia kell, hogyan használják ezeket a technológiákat biztonságosan, anélkül, hogy kockáztatnák az érzékeny adatok kiszivárgását.
De mi erről a véleménye a ChatGPT-nek?
Nem lenne korrekt, ha erről a témáról, pont magát a mesterséges intelligenciát nem kérdeznénk meg, így az alábbiakban változatlanul közöljük a ChatGPT válaszát.