Prečo sa shadow AI môže stať vaším najväčším rizikom

BVF Shadow AI nahladovy obrazok

Od neúmyselného úniku dát až po chybový kód – tu je dôvod, prečo by vás v spoločnosti malo trápiť neautorizované používanie AI.

Shadow IT bolo už dlho tŕňom v oku firemných bezpečnostných tímov. Napokon, nemôžete riadiť ani chrániť to, o čom vôbec neviete. Teraz však môže byť situácia ešte horšia. Rozsah, dosah a sila umelej inteligencie (AI) robí zo shadow AI problém, ktorý by mal zaujímať každého IT alebo bezpečnostného manažéra.

Kybernetické riziko prekvitá v temných zónach medzi smernicami prijateľného používania technológií. Ak ste tak ešte neurobili, možno nastal čas posvietiť si na to, čo môže byť vaším najväčším bezpečnostným slepým miestom.

Čo je shadow AI a prečo práve teraz?

Nástroje umelej inteligencie sú súčasťou firemného IT už pomerne dlho. Bezpečnostným tímom pomáhajú odhaľovať nezvyčajné aktivity a filtrovať hrozby, ako je spam, už od začiatku 2000-cich rokov. Tentoraz je to však iné. Od prelomového úspechu nástroja ChatGPT od spoločnosti OpenAI v roku 2023, keď chatbot získal 100 miliónov používateľov v priebehu prvých dvoch mesiacov, sú zamestnanci nadšení z potenciálu generatívnej AI uľahčiť im prácu. Korporácie však reagujú pomalšie.

Vzniklo tak vákuum, ktoré frustrovaní používatelia veľmi ochotne vypĺňajú. Hoci je takmer nemožné presne zmerať trend, ktorý sa zo svojej podstaty odohráva „v tieni“, Microsoft odhaduje, že 78 % používateľov AI si dnes nosí vlastné nástroje do práce. Nie je náhoda, že 60 % IT lídrov sa obáva, že vrcholový manažment nemá plán, ako technológiu oficiálne zaviesť.

Populárne chatboty ako ChatGPT, Gemini či Claude možno veľmi jednoducho používať alebo stiahnuť do zariadení v režime BYOD alebo na notebooky používané pri práci z domu. Ponúkajú niektorým zamestnancom lákavú predstavu zníženia objemu práce, zmiernenia termínov a uvoľnenia rúk na činnosti s vyššou pridanou hodnotou.

Mimo verejných AI modelov

Samostatné aplikácie ako ChatGPT tvoria veľkú časť problému shadow AI. Nepredstavujú však celý rozsah rizika. Technológia môže do firmy „pretiecť“ aj cez rozšírenia prehliadača. Alebo cez funkcie v legitímnych biznisových softvérových produktoch, ktoré si používatelia zapnú bez vedomia IT oddelenia.

Potom je tu „agentic AI“ – ďalšia vlna inovácií v oblasti AI, založená na autonómnych agentoch navrhnutých tak, aby samostatne plnili konkrétne úlohy zadané ľuďmi. Bez správne nastavených ohraničení môžu potenciálne získať prístup k citlivým dátovým úložiskám a vykonávať neautorizované či škodlivé akcie. A keď si to niekto všimne, môže byť už neskoro.

Aké riziká prináša shadow AI?

To všetko vytvára pre organizácie zásadné bezpečnostné a compliance riziká. Najprv zvážme neautorizované používanie verejných AI modelov. Pri každom príkaze (prompte) existuje riziko, že zamestnanec zdieľa citlivé a/alebo regulované údaje. Môžu to byť zápisnice z porád, duševné vlastníctvo, kód alebo osobné údaje zákazníkov či zamestnancov.

Všetko, čo do modelu „vstúpi“, sa môže použiť na jeho ďalší tréning, a teda sa to môže v nejakej podobe neskôr zobraziť iným používateľom. Údaje sú navyše uložené na serveroch tretej strany, potenciálne v jurisdikciách, ktoré nemajú rovnaké bezpečnostné a súkromnostné štandardy ako vy.

To nebude po chuti dozorným orgánom na ochranu osobných údajov (napr. GDPR, CCPA a pod.). Zároveň to zvyšuje riziko tým, že potenciálne umožňuje zamestnancom poskytovateľa AI nástroja prezerať si vaše citlivé informácie. Dáta môžu byť tiež uniknuté alebo kompromitované samotným poskytovateľom – ako sa to stalo čínskemu poskytovateľovi DeepSeek.

Chatboty môžu obsahovať softvérové zraniteľnosti či backdoory, ktoré organizáciu neúmyselne vystavujú cieleným hrozbám. A každý zamestnanec, ktorý si je ochotný stiahnuť chatbot na pracovné účely, môže omylom nainštalovať aj škodlivú verziu navrhnutú špeciálne na krádež citlivých údajov z jeho zariadenia. Na internete je množstvo falošných nástrojov generatívnej AI vytvorených práve na tento účel.

BVF_MDR_banner

Riziká presahujú aj za hranicu úniku dát. Neautorizované používanie nástrojov na programovanie môže napríklad do zákazníckych produktov zaviesť zneužiteľné chyby, ak výstup nie je riadne kontrolovaný. Dokonca aj používanie analytických nástrojov poháňaných AI môže byť rizikové, ak sú modely trénované na zaujatých alebo nekvalitných dátach, čo vedie k chybnému rozhodovaniu.

AI agenti môžu tiež vytvárať falošný obsah a chybný kód alebo vykonávať neautorizované akcie bez vedomia svojich ľudských „majiteľov“. Účty, ktoré títo agenti potrebujú na fungovanie, sa tiež môžu stať populárnym cieľom pre prevzatie, ak ich digitálne identity nebudú správne spravované. Niektoré z týchto rizík sú zatiaľ teoretické, iné nie. IBM tvrdí, že už minulý rok utrpelo 20 % organizácií narušenie bezpečnosti v dôsledku incidentov súvisiacich so shadow AI. U tých, ktoré majú vysokú mieru výskytu shadow AI, môže podľa výpočtov pridať až 670 000 USD k priemerným nákladom na únik dát.

Incidenty spojené so shadow AI môžu mať výrazný finančný aj reputačný dopad, vrátane pokút za porušenie pravidiel. Rovnako škodlivé však môžu byť aj biznisové rozhodnutia prijaté na základe chybných alebo kompromitovaných výstupov – ak nie ešte viac, najmä preto, že si ich chybu často nikto nevšimne.

Ako si posvietiť na shadow AI

Nech už sa rozhodnete riešiť tieto riziká akokoľvek, nestačí len pridávať každé novoobjavené shadow AI riešenie na „deny list“. Musíte si priznať, že tieto technológie sa používajú, pochopiť, do akej miery a na aké účely, a potom vytvoriť realistickú politiku prijateľného používania. To by malo ísť ruka v ruke s interným testovaním a due diligence pri výbere dodávateľov AI, aby ste pochopili, kde sa v konkrétnych nástrojoch nachádzajú bezpečnostné a compliance riziká.

Žiadne dve organizácie nie sú rovnaké. Svoje politiky preto stavajte na vlastnej ochote riskovať. Ak sú niektoré nástroje zakázané, snažte sa mať pripravené alternatívy, na ktoré možno používateľov presvedčiť, aby prešli. A vytvorte jednoduchý proces, cez ktorý môžu zamestnanci žiadať o prístup k novým nástrojom, ktoré ste zatiaľ neobjavili.

Toto všetko skombinujte s edukáciou používateľov. Vysvetlite im, čo všetko môžu používaním shadow AI ohroziť. Vážne úniky dát niekedy končia firemnou paralýzou, zastavením digitálnej transformácie a dokonca prepúšťaním. Zvážte aj nasadenie monitoringu siete a bezpečnostných nástrojov na zmiernenie rizika úniku dát a zlepšenie viditeľnosti používania AI.

Kybernetická bezpečnosť bola vždy o balansovaní medzi zmierňovaním rizík a podporou produktivity. A pri zvládaní výzvy shadow AI to nie je inak. Veľká časť vašej úlohy je udržať organizáciu v bezpečí a v súlade s reguláciou. Ale zároveň máte podporovať rast biznisu. A pre mnohé organizácie bude tento rast v najbližších rokoch poháňaný práve umelou inteligenciou.