Poprední odborníci z technologického sveta varovali, že umelá inteligencia by mohla viesť k vyhynutiu ľudstva. Zabránenie tomuto scenáru by malo podľa nich byť rovnakou celospoločenskou prioritou ako v prípade rizika pandémie či jadrovej vojny. Vyhlásenie uverejnilo Centrum pre bezpečnosť umelej inteligencie.
Umelá inteligencia straší aj jej autorov
Výzvu podporili vedúci predstavitelia popredných spoločností vyvíjajúcich umelú inteligenciu. Obavy o tom, že sa situácia vymkne z rúk, zdieľa napríklad Sam Altman, výkonný riaditeľ spoločnosti OpenAI, ktorá vyvinula ChatGPT. Medzi ďalšími odborníkmi, čo bijú na poplach, sú Demis Hassabis, výkonný riaditeľ spoločnosti Google DeepMind či Dario Amodei zo spoločnosti Anthropic.
Experti upozornili na niekoľko možných katastrofických scenárov súvisiacich s umelou inteligenciou:
- Umelá inteligencia by sa mohla premeniť na zbraň – napríklad nástroje na vývoj liekov by sa mohli použiť na výrobu chemických zbraní.
- Dezinformácie generované umelou inteligenciou by mohli destabilizovať spoločnosť a „podkopať kolektívne rozhodovanie.“
- Ovládanie umelej inteligencie by sa mohlo koncentrovať v čoraz menšom počte rúk, čo by umožnilo režimom presadzovať svoje hodnoty prostredníctvom sledovania a cenzúry.
- Oslabenie ľudstva v dôsledku závislosti od umelej inteligencie, podobne ako vo filme Wall-E.
Prehnané obavy?
Výzvu Centra pre bezpečnosť umelej inteligencie podporili aj Dr. Geoffrey Hinton a profesor Yoshua Bengio, ktorí sú spolu s profesorom Yannom LeCunom označovaní za krstných otcov umelej inteligencie. Za svoju priekopnícku prácu získali spoločne v roku 2018 Turingovu cenu, ktorá sa udeľuje za výnimočný prínos v oblasti počítačových vied.
Profesor LeCun, ktorý pracuje v spoločnosti Meta, však apokalyptické výstrahy svojich kolegov vníma ako prehnané. Na Twitteri uviedol, že výskumníci na umelú inteligenciu sa pri proroctvách o skaze chytajú za hlavu.
Umelá inteligencia a kybernetická bezpečnosť
Hoci v súčasnosti ide o relatívne malú hrozbu, vyhlásenie o vyhynutí ľudstva poprednými expertmi naznačuje, že by sme mali byť obozretní. Kybernetickí zločinci už teraz čoraz častejšie využívajú umelú inteligenciu na uľahčenie svojich útokov. Dokážu ňou vylepšovať časti svojho škodlivého kódu, alebo zdokonaľovať phishing a jeho tvorbu. Tomuto vývoju sa musia prispôsobiť aj bezpečnostné nástroje.
„Dobrou správou je, že umelá inteligencia v tomto zápase čelí podobným nástrojom aj na obrannej strane. Umelá inteligencia sa už dlhšiu dobu využíva v bezpečnostných riešeniach na odhalenie podozrivého správania či škodlivého kódu. Očakávame, že budeme svedkami jej čoraz častejšieho nasádzania do bezpečnostných mechanizmov na adresovanie rastúceho spektra hrozieb,“ vysvetľuje Ondrej Kubovič, špecialista na digitálnu bezpečnosť spoločnosti ESET.
Ľudia sú stále potrební
Umelá inteligencia sa však ani dnes nezaobíde bez zásahu a kontroly zo strany človeka. Vo svete kybernetickej bezpečnosti je kľúčom k úspešnej obrane kombinácia technológie a ľudskej expertízy.
Príkladom potreby ľudskej kontroly je aj chatbot ChatGPT, ktorý si často vymýšľa (tzv. halucinuje) odpovede na otázky, na ktoré nepozná odpoveď. Kritici varujú, že aj samotná umelá inteligencia by sa v istom bode mohla rozhodnúť konať v neprospech svojich tvorcov. Ľudský dohľad je preto nevyhnutný, aby sa chybné rozhodnutia umelej inteligencie zachytili už v zárodku, ešte než sa zmenia na lavínu ďalších chybných rozhodnutí.
Obavy môžu prispieť k regulácii
Z nedávnej minulosti sme zvyknutí, že na fenomény z oblasti technológií legislatíva nestíha reagovať včas. Príkladom sú sociálne médiá, ktoré umožnili nekontrolovateľné šírenie dezinformácií a nenávistného obsahu, ale aj kryptomeny.
Intenzívna diskusia o umelej inteligencii, ktorá aktuálne prebieha, je preto pozitívna. „Aj keď sú ChatGPT a ďalšie modely umelej inteligencie v niektorých ohľadoch pôsobivé, do veľkej miery sú ešte stále v počiatočnej fáze. Regulácia v tomto štádiu je však dôležitou súčasťou procesu a môže pomôcť usmerniť bezpečnejšie využívanie tejto technológie pre budúce generácie,“ uzatvára Ondrej Kubovič.