Egyéb

Adatvédelem: hasznos, de kockázatos a chatbot

A mesterséges intelligencia (MI) mára már beépült a mindennapjainkba, és a technológia használata a kkv-k versenyképességét is egyre inkább befolyásolja. Az MI alkalmazásánál nem kell rögtön tetemes beruházásokban gondolkodni, elég, ha a jövő évi stratégia részeként az alkalmazottak megbarátkoznak a népszerű chatbotokkal, és megértik azok kockázatait az adatvédelemben. Összeszedtük, milyen szempontokat érdemes figyelembe venni ehhez. 

Az elmúlt hónapokban felerősödtek a mesterséges intelligenciát (MI) alkalmazó eszközökről, például a chatbotkról szóló viták, és a vállalati gyakorlatban is egyre többen alkalmazzák a technológiát. Az innováció a jövő kulcsa, ezért az a vállalkozás, amelyik nyit az újszerű megoldások felé, megelőzheti társait a piaci versenyben. Az MI-eszközök segítségével jelentősen növelhető a cég produktivitása, használatuk időt, energiát takaríthat meg – ezért már most sok kkv építette be az alkalmazásukat munkafolyamataikba. 
A legismertebb és leghétköznapibb megoldások a nagy nyelvi modellek, például az OpenAI által kifejlesztett ChatGPT chatbot. A felhasználókkal való folyamatos kommunikáció automatizálása során értelmező-modelleket használ a rendszer, ezek segítségével a bevitt információkat azonnal, interaktívan kezeli. A nyelvi rendszerek az online szövegek felhasználásával hatékonyan értelmezik és válaszolják meg a felhasználók kérdéseit. A módszer emberszerű szöveget hoz létre és elemzi a válaszokat. 

A chatbotok használata egyre elterjedtebb és számos területre kiterjed, kezdve a keresőmotoroktól a hangos segítségnyújtáson keresztül, a gépi fordításig bezárólag. Ez elősegítheti az ötletek kidolgozását, a különféle szövegek és tartalmak összefoglalását, átfogalmazását, kiegészítését, vagy akár egy üzleti stratégia, marketingterv, projektjelentés alapjainak megalkotását. A kiberbiztonsági kutatók szerint mielőtt kihasználjuk az innovatív AI eszközök előnyeit, meg kell tanulni biztonságosan, adataink veszélyeztetése nélkül alkalmazni azokat. 

Induljunk oktatással, belső szabályzattal! 
Mivel a mesterséges intelligencia és különösen a gépi tanulás területén a fejlődés folyamatos, a vállalatoknak követniük kell a trendeket, alkalmazkodniuk kell azokhoz. Amennyiben ilyen eszközök használata mellett dönt a cég, a vezetőnek első lépésként meg kell győződnie arról, hogy minden kolléga tudja, hogyan kell biztonságosan használni a technológiákat az adatszivárgás kockázata nélkül. 

Ennek érdekében tanácsos gyorstalpaló tanfolyammal, célzott képzéssel kezdeni a ChatGPT alkalmazásának bevezetését a napi működésbe. Ennek köszönhetően a kollégák együtt tanulhatják meg a technológia csínját-bínját, és gyakorlati tapasztalataikkal segíthetik egymást az új munkafolyamatok hatékony kialakításában. Az adatszivárgások leghatékonyabb elkerülése érdekében a cégnél egyértelmű szabályzatokat kell kialakítani a személyes adatok gyűjtésére és tárolására vonatkozóan, amelyet maradéktalanul, számon kérhető módon be kell tartania minden munkatársnak. A belső szabályzatot érdemes néhány hetente felülvizsgálni és az újdonságokhoz, a megszerzett tapasztalatokhoz igazítani.

Kapcsoljuk ki a csevegési előzményeket!
Vannak olyan cégek, amelyek támogatják, mások kifejezetten tiltják a chatbotok használatát. Aggodalomra adhat okot, hogy minden alkalommal, amikor kapcsolatba lépünk és információt kérünk, fennáll az érzékeny adatok megosztásának veszélye. 

Az MI használata során a bevitt adatok felett többé nem lesz hatalmunk, miután megnyomjuk a küldés gombot, mivel azok sokszor nyilvánossá válnak – ez persze nem azt jelenti, hogy a rendszerek azonnal felhasználnák a megszerzett információt a másnak adott válaszokhoz. A szolgáltató, illetve partnerei azonban hozzáférhetnek a megadott adatokhoz, amelyeket beépíthetnek a technológia következő verzióiba. 

Az OpenAI, és így a ChatGPT mögött álló vállalat, az LLM például bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a betáplált információkat a mesterséges intelligencia modelljeinek tanítására és fejlesztésére használják fel. Így a felhasználók nagyobb kontrollal rendelkeznek az adataik felett. Az első lépés tehát mindig legyen a csevegési előzmények kikapcsolása, amikor olyan eszközöket használunk, mint a ChatGPT. A csevegési előzmények kikapcsolásával is minden prompt adatot tárolnak a chatbot külső szerverei, így megmarad az esélye, hogy a hackerek jogosulatlanul elérik ezeket, vagy technikai hibák esetén illetéktelenekhez kerülnek a felhasználók adatai.

Anonimizáljuk az adatokat!
A chatbotok hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására is. A dokumentumok MI-rendszerekbe feltöltése ugyanakkor veszélyeztetheti a bennük tárolt vállalati információkat. 

Csábító lehet egyszerűen átmásolni a kész dokumentumokat, stratégiákat, és megkérni az eszközt, hogy készítsen összefoglalót vagy ajánlást a prezentációs diákhoz, az adatbiztonság szempontjából viszont ez egy kockázatos könnyedség, hiszen így az alkalmazottak óvatlanul felfedhetik a cég féltve őrzött tudásanyagát. 
Az adatok anonimizálását mindenképpen gyakorolni kell az adatvédelem etikus kezelése érdekében. A marketingstratégia megvalósítása során például a kollégák feltöltik a CRM-rendszerükből az ügyfelek adatait célzott hírlevél összeállítása céljából. Ilyen feladatnál érdemes minden alkalommal a lehető legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt bekerülnek a chatbotokba. Az ügyféladatok védelme érdekében előbb ellenőrizni és törölni kell a bevitt szövegekből minden érzékeny információt: nevet, címet, személyes azonosító adatot, számlaszámot. A legkörültekintőbben akkor járunk el, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel.

A cég szigorú szabályzata ezekről mind rendelkezzen, és külön térjen ki a bizalmas iratok kezelésének feltételeire, amelyhez a hozzáférést érdemes korlátozni. Megoldás lehet, ha a kollégák előbb manuálisan ellenőrzik a dokumentumokat, majd összefoglalót vagy segítséget kérnek a chatbotoktól. Ezzel egy személyes biztonsági szint épül be a munkafolyamatokba, amelynek során ügyelni lehet az érzékeny információk a mesterséges intelligencia rendszerébe kerülésére, vagyis a feltöltött anyag megfelelő anonimitására. 

Fejlesztésnél is legyünk résen!
A ChatGPT segítségével az időmenedzsment vagy a feladat strukturálása terén a hatékonyság érdekében fejlesztheti az egyes gyakorlatokat, munkafolyamatokat is a vállalkozás. A chatbotnak minél több, pontos információra van ehhez szüksége, például értékes know-how-t és egyéb adatokat szerez meg, ami szintén potenciálisan kártékony gyakorlat, ezzel pedig jogosulatlan hozzáférést vagy adatszivárgást valósíthat meg. A szakértők tanácsa szerint ezen probléma megoldása érdekében alapvető gyakorlatnak kell lennie a prompt anonimizálásának is – ez azt jelenti, hogy a nevek, címek, pénzügyi adatok vagy más személyes adatok a chatbotnak feltett kérésekben soha ne jelenjenek meg. Amennyiben egy vállalat szeretné elősegíteni a biztonságos használatot, érdemes sablonként szabványosított kéréseket megfogalmazni a chatbot felé.