Tragédia v Iráne: Zlyhanie technológie a umelá inteligencia
Všetkých 165 školáčok zahynulo v dôsledku útoku na dievčenskú školu v iránskom Mínábe, čo zostáva jednou z najtragickejších vojenských chýb v histórii. Predbežné vyšetrenie naznačuje, že útok bol uskutočnený americkou armádou, ktorá sa sústredila na neželaný cieľ v dôsledku chýb v prípade predchádzajúcej Inteligenčnej operácie.
Útok na školu: Chyba v určení cieľa
Incident, ktorý sa odohral 28. februára, zasiahol budovu základnej školy, obývanú výrazne mladými dievčatami. Podľa zistení The New York Times armáda určila súradnice na základe zastaraných informácií poskytnutých Obrannou spravodajskou agentúrou. Americkí dôstojníci v Centrálnej veliteľskej štruktúre (CENTCOM) upozornili na to, že súčasné okolnosti vyžadovali presnejšie overenie údajov, ktoré však neboli riadne vykonané.
Podľa vyjadrení oficiálnych zdrojov americkej armády ostáva množstvo otázok, vrátane toho, prečo sa nesprávne informácie nepodrobili dôkladnej kontrole. Dôsledky tohto tragického omylu budú pravdepodobne označené za jednu z najničivejších vojenských chýb za posledné desaťročia.
Umelá inteligencia na bojisku
Pri analýze incidentu sa zistilo, že umelá inteligencia, konkrétne systém Claude AI od spoločnosti Anthropic, zohrala dôležitú úlohu. Podľa zdrojov The Wall Street Journal bola AI neoddeliteľne prepojená s vyšetrovaním a pomáhala pri vyhodnocovaní spravodajských informácií, identifikácii cieľov a simuláciách operácií. Minister obrany Pete Hegseth vyjadruje silnú podporu pre integráciu AI do vojenských praktík.
Ako sa však ukázalo, využitie Clauida AI prešlo aj napriek zákazu od americkej administratívy, ktorá nástroje Anthropic obmedzila pre ich nevhodné použitie v autonómnych zbraniach. Napriek tomu bola Claude využitá v spojení so systémom Maven Smart od Palantiru, ktorý spracovával ciele s nevídanou rýchlosťou.
Ciele a tragické zlyhania
V nasledujúcich hodinách po útoku sa zistilo, že Claude navrhla stovky vojenských cieľov, pričom pred každým odporučila aj vhodné zbrane založené na analýze predchádzajúcich útokov a dostupnosti zásob. Odborníci poukázali na to, že spracovanie takého vysokého počtu cieľov bez umelej inteligencie by vyžadovalo týždne prác, čím AI skrátila proces rozhodovania o útoku na niekoľko hodín.
História sa opakuje
Podobné nešťastie sa už stalo počas vojny NATO v 90. rokoch, keď bombardovanie čínskej ambasády v Belehrade viedlo k smrti viacerých občanov. Zlyhanie spravodajských informácií sa aj vtedy ukázalo ako základný faktor, ktorý viedol k tragédii. Analýzy naznačujú, že ak armáda neprijme striktné opatrenia na zlepšenie presnosti a kontroly svojich vojakov a technológií, môže sa ocitnúť v zložitých a nebezpečných situáciách aj napriek vyspelým technológiam, ako je umelá inteligencia.
Záver: otázky a výzvy do budúcnosti
Tragédia v iránskej škole je len jedným z mnohých prípadov, kde technológia nesmieme zohrávať rozhodujúcu úlohu. Kľúčom k prevencii takýchto incidentov bude nielen technológia, ale aj kritické myslenie a zodpovednosť tých, ktorí kontrolujú výkon AI v zložitých vojenských operáciách. Takáto situácia nás vyzýva zamyslieť sa nad morálnymi a etickými dôsledkami používania umelej inteligencie vo vojne a ako sa s ním dá narábať tak, aby sa predišlo tragédiám ako je táto.