Rok 2026: Agentická AI ako nový vektor útoku
V roku 2026 sa agentická umelá inteligencia (AI) stáva otvorenejším a autonómnym nástrojom pre kybernetické útoky, čím prekonáva predchádzajúce technológie ako deepfakes a ransomvér. Vývojári agentických AI, od tých najznámejších ako OpenClaw, varujú pred rizikami, ktoré tieto technológie prinášajú. Agentická AI nie je len nástrojom na automatizáciu úloh, ale aj potenciálnym štatisticky nebezpečným partnerom pre útočníkov.
Čo je agentická AI?
Na rozdiel od tradičných generatívnych AI nástrojov, ako sú ChatGPT alebo Copilot, agentická AI je schopná plánovať, rozhodovať a vykonávať úlohy bez nutnosti priameho zásahu človeka. S nástupom platforiem s nízkym alebo žiadnym kódovaním, ako sú Metaflow AI a Emergent, sa vytvorenie vlastného AI agenta stáva dostupným aj pre laikov. Táto jednoduchosť však so sebou nesie vážne bezpečnostné riziká, keďže mnohí užívatelia bezstarostne prepoja svoje agenti s citlivými systémami.
Riziká spojené s agentickou AI
Podľa analytického tímu Alison Slovakia, agentická AI môže otvoriť dvere pre kybernetické hrozby. Používatelia často udelia svojim agentom vysoké práva, čo vytvára ideálne podmienky pre útoky. Prieskum medzi bezpečnostnými expertmi ukázal, že až 48% respondentov považuje agentov za najvýraznejší vektor útoku v rokoch 2026 a 2027. Smer, ktorým sa uberá bezpečnostná jednotka AI, je preto alarmujúci.
Príklady útokov na AI agentov
Útočníci môžu využiť rôzne techniky na manipuláciu AI agentov, vrátane priamych a nepriamych injekcií príkazov, otrávenia nástrojov a koordinovaných útokov na celých reťazcoch nástrojov. Takéto taktiky umožňujú útočníkom prevziať kontrolu nad agentom bez potreby predchádzajúceho prieniku do systému. Prípadne môžu využiť aj bežné príspevky na sociálnych sieťach na vkladanie škodlivých inštrukcií, čo demonstráciou ich schopností manipulovať s kryptomenovými peňaženkami bez priameho zásahu.
Dôsledky útokov na infraštruktúru
Ak agent zasiahne do citlivých systémov, môže to mať katastrofálne následky. Bezpečnosť dát a systémov sa stáva ešte komplikovanejšia v prostredí, kde existujú ďalšie neoficiálne „shadow data”. Tieto nespravované informácie, spolu s vlastnými agentmi zamestnancov, sa stávajú ťažiskom pre nebezpečenstvo úniku informácií. Vznikajú tak nové výzvy, ktoré vyžadujú komplexné prístupy k zabezpečeniu systémov.
Nové obranne techniky a potreba adaptácie
Podľa štúdie, ktorú vykonali OpenAI, Anthropic a Google DeepMind, väčšina tradičných ochrán zlyháva pri adaptívnych útokoch agentov AI. Výskumníci upozorňujú, že problém prompt injekcie je hlboký a vyžaduje si znova prehodnotiť architektúru a prístup k bezpečnosti AI systémov. Z faktu, že útočníci obchádzajú existujúce obrany s úspešnosťou prekračujúcou 90%, je jasné, že je nutné hľadať nové metódy ochrany.
Budúcnosť a rast trhu s agentickou AI
Trh s osobnými a podnikateľskými AI agentmi rástol a predpokladá sa, že jeho hodnota vzrastie z 7,8 miliardy amerických dolárov v roku 2025 na 48-52 miliárd dolárov do roku 2030. Takýto rýchly nárast posúva agentov AI na poprednú líniu digitálnych technológií. Očakáva sa, že do konca roka 2026 sa 40% podnikových aplikácií bude spoliehať na tieto agentov, čo podčiarkuje potrebu silnejších a účinnejších opatrení na ich ochranu.