Nástroje využívajúce umelú inteligenciu sa stali hlavnou témou uplynulých mesiacov. Vzhľadom na to, ako efektívne dokážu zvyšovať produktivitu a šetriť čas, ich už mnohí zamestnanci začlenili do svojej každodennej pracovnej rutiny. Ešte skôr ako vaši vlastní zamestnanci začnú naplno využívať výhody inovatívnych nástrojov umelej inteligencie, mali by dostať informácie o tom, ako s takýmito nástrojmi pracovať bezpečne, teda tak, aby neohrozili bezpečnosť údajov vašej spoločnosti.
Pozor na údaje, ktoré zdieľate s ChatGPT
Nástroje využívajúce umelú inteligenciu dokážu pomôcť rozvíjať myšlienky, zhrnúť či preformulovať časti textu, vytvoriť základ pre obchodnú stratégiu alebo nájsť chybu v kóde. Pri používaní umelej inteligencie však musíme mať na pamäti, že po odoslaní svojho textu do nástroja nám zadané údaje viac nepatria.
Jednou z hlavných obáv pri používaní veľkých jazykových modelov (LLM) ako ChatGPT je zdieľanie citlivých údajov s veľkými medzinárodnými korporáciami. Tieto modely fungujú na základe online textu a dokážu efektívne interpretovať otázky používateľov a tiež na ne reagovať. Keď komunikujeme s chatbotom a pýtame sa na informácie či hľadáme pomoc, môže sa nám stať, že neúmyselne prezradíme citlivé údaje o sebe alebo našej spoločnosti.
Zadané údaje, ktoré napíšeme v príkaze pre chatbota, sa stávajú verejnými. Neznamená to, že by chatboty tieto informácie okamžite použili ako základ pre odpovede iným používateľom. Poskytovateľ LLM alebo jeho partneri však môžu mať prístup k zadaným príkazom a otázkam a mohli by ich zahrnúť do budúcich verzií technológie. Organizácia OpenAI, ktorá stojí za službou ChatGPT, už predstavila možnosť vypnúť históriu četu, čím viete zabrániť tomu, aby sa vaše údaje použili na trénovanie a zlepšovanie modelov umelej inteligencie spoločnosti OpenAI. Používatelia tak získavajú väčšiu kontrolu nad svojimi údajmi. Ak chcú zamestnanci vašej spoločnosti používať nástroje ako ChatGPT, prvým krokom by malo byť vypnutie histórie četu.
Aj v prípade, že je história četu vypnutá, všetky dáta používateľských príkazov sa stále ukladajú na servery chatbota. Tým, že sú všetky príkazy uložené na externých serveroch, vzniká potenciálna hrozba neoprávneného prístupu hackerov k dátam. Okrem toho sa môžu vyskytnúť aj technické chyby, ktoré neoprávneným osobám umožňujú pristupovať k údajom iných používateľov.
Ako teda zabezpečiť, aby zamestnanci vašej spoločnosti používali platformy ako ChatGPT bezpečným spôsobom? Ponúkame zoznam najčastejších chýb, ktorých sa zamestnanci dopúšťajú, a odporúčania, ako sa im vyhnúť.
1. Zadávanie informácií o zákazníkoch do príkazov
Prvou častou chybou, ktorej sa zamestnanci dopúšťajú pri používaní LLM, je neúmyselné zdieľanie citlivých informácií o klientoch spoločnosti. Ako to vyzerá? Predstavte si napríklad, že lekári zadajú do nástroja LLM mená a zdravotné záznamy svojich pacientov, aby im chatbot vygeneroval listy pre zdravotné poisťovne. Marketingoví pracovníci by zas mohli do LLM zadať údaje o zákazníkoch zo svojich systémov CRM, aby im nástroj zostavil cielené newslettre.
Naučte zamestnancov, aby svoje príkazy zadávané do chatbotov pred zaslaním vždy najskôr anonymizovali. V záujme ochrany osobných údajov zákazníkov je potrebné, aby zamestnanci prezreli a starostlivo upravili všetky citlivé informácie, ako sú mená, adresy alebo čísla účtov. Ideálne však je osobné údaje vôbec nepoužívať a spoliehať sa na zovšeobecnené otázky.
2. Nahrávanie dôverných dokumentov do chatbotov
Chatboty môžu byť cenným nástrojom na rýchle sumarizovanie veľkých objemov údajov, vytváranie návrhov, prezentácií alebo reportov. Stále však platí, že nahrávanie dokumentov do nástrojov, akým je ChatGPT, predstavuje riziko a môže ohroziť údaje spoločnosti a klientov, ktoré sú v dokumentoch uvedené. Hoci je lákavé jednoducho skopírovať obsah dokumentu a požiadať nástroj o vytvorenie zhrnutia alebo návrhov do prezentácií, z pohľadu bezpečnosti údajov ide o potenciálnu hrozbu.
Pozornosť je na mieste nielen pri dôležitých dokumentoch, ako sú stratégie rozvoja, ale aj menej zásadných materiáloch, napríklad poznámkach z porady, cez ktoré by mohli zamestnanci prezradiť cenné know‑how spoločnosti.
Aby ste čo najefektívnejšie zamedzili takýmto hrozbám, odporúčame zaviesť prísne pravidlá upravujúce manipuláciu s citlivými dokumentmi a taktiež obmedziť prístup k takýmto záznamom len na nevyhnutnú skupinu osôb. Zamestnanci by mali povinne vykonať manuálnu kontrolu dokumentov ešte predtým, ako požiadajú chatbota o zhrnutie alebo iný typ pomoci. Cieľom je zabezpečiť, aby sa vymazali alebo primerane anonymizovali všetky citlivé informácie, ako sú mená, kontaktné údaje, dáta o predaji alebo peňažné toky.
3. Používanie firemných dát v príkazoch
Predstavte si, že sa snažíte zlepšiť niektoré postupy a pracovné procesy vo vašej spoločnosti. Požiadate ChatGPT o pomoc s časovým plánom alebo štruktúrou úloh a do príkazu zadáte cenné know‑how a ďalšie informácie, na základe ktorých chatbot pripraví riešenie. Podobne ako zadávanie citlivých dokumentov alebo informácií o klientoch do chatbotov, aj pridávanie citlivých firemných údajov do príkazov patrí medzi bežné, no potenciálne nebezpečné praktiky, keďže môže viesť k neoprávnenému prístupu alebo úniku dôverných informácií.
Samsung dáva stopku „generatívnej umelej inteligencii“, zatiaľ čo Amazon k nej pristupuje s dávkou opatrnosti.
Začiatkom roka 2023 inžinier spoločnosti Samsung odhalil, že došlo k úniku citlivého interného zdrojového kódu, ktorý nahral do nástroja ChatGPT. Toto zistenie priviedlo Samsung k zákazu používania nástrojov „generatívnej umelej inteligencie“ v rámci celej spoločnosti. S podobným problémom sa stretla aj spoločnosť Amazon. Údajne narazila na niekoľko odpovedí z ChatGPT, ktoré sa podobali interným dátam spoločnosti. V tomto prípade však Amazon nástroje využívajúce umelú inteligenciu nezakázal, ale upozornil svojich zamestnancov, aby ich používali zodpovedne.
Základným odporúčaním, ako tento problém riešiť, je bezodkladná anonymizácia zadávaných dát. To znamená, že do príkazov chatbota by sa nikdy nemali vpisovať žiadne mená, adresy, finančné údaje ani iné osobné informácie. Ak chcete zamestnancom dopomôcť k tomu, aby nástroje ako ChatGPT využívali bezpečným spôsobom, vytvorte šablóny štandardizovaných príkazov, ktoré môžu v prípade potreby bezpečne používať všetci zamestnanci, napríklad: „Predstav si, že si [názov pozície] v [spoločnosti]. Vytvor lepší týždenný pracovný postup pre [pozíciu] so zameraním najmä na [úlohu].“
Nástroje umelej inteligencie sú budúcnosťou práce, no ich prítomnosť už možno naplno vidieť v rôznych pracovných oblastiach. Keďže pokrok na poli umelej inteligencie a obzvlášť strojového učenia je každým dňom rýchlejší, spoločnosti musia nevyhnutne sledovať najnovšie trendy a prispôsobovať sa im. Je dôležité zvyšovať medzi zamestnancami povedomie o tom, ako používať tieto technológie bez rizika úniku dát, bez ohľadu na to, či ide o špecialistov na bezpečnosť údajov alebo bežného IT špecialistu.