To już wojny algorytmiczne. AI decyduje, maszyny wybierają cele, a ludzie giną

„Claude” od „Anthropic” wybiera cele w systemie „Palantir”. AI decyduje gdzie spadają amerykańskie bomby w Iranie

22/03/2026 zmianynaziemi/claude-od-anthropic-wybiera-cele-w-systemie-palantir-ai-decyduje-gdzie-spadaja

Wojna z Iranem weszła w fazę, której historia jeszcze nie widziała. Podczas gdy tradycyjne media skupiają się na eksplozjach nad Tehranem, prawdziwa rewolucja dzieje się w cyfrowych centrach dowodzenia. Sztuczna inteligencja nie wspiera już tylko żołnierzy – sama decyduje o tym, co zniszczyć.

System Maven Smart System, stworzony przez Palantir Technologies we współpracy z firmą Anthropic i jej modelem Claude, stał się centralnym narzędziem amerykańskich sił zbrojnych. W ciągu pierwszych 24 godzin operacji o kryptonimie Epic Fury zniszczono około 1000 celów. W pierwszych tygodniach kampanii liczba ta przekroczyła 5500.

Jedna niewielka jednostka, licząca zaledwie 20 osób, wykonuje pracę, którą dawniej musiałoby wykonywać 2000 analityków.

Maven łączy dane z 179 różnych źródeł – satelitów, dronów, radarów, sensorów, raportów wywiadowczych, lokalizacji telefonów komórkowych, ruchu internetowego i wiadomości tekstowych. Algorytm automatycznie identyfikuje pojazdy wojskowe, budynki, składy broni i liderów, tworząc listę priorytetów uderzeń. Człowiek nadal podpisuje się pod decyzją, ale cała analiza – ta wymagająca tysięcy godzin pracy – dzieje się w sekundy.

Craig Jones, ekspert ds. współczesnej wojny, nie ma wątpliwości: taki system redukuje ogromną ilość pracy ludzkiej do kilku sekund. Automatyzacja decyzji o celach otwiera jednak całą gamę problemów prawnych, etycznych i politycznych.

Kontrowersje budzi przypadek szkoły dla dziewcząt w południowym Iranie. W ataku zginęło ponad 170 osób, głównie dzieci. Obiekt był oznaczony w systemie jako kompleks wojskowy. Sztuczna inteligencja nie rozpoznała cywilnego charakteru budynku – rankiem dziewczynki właśnie do niego wchodziły. Pentagon prowadzi w tej sprawie dochodzenie.

Eksperci zwracają uwagę na zjawisko automatycznego uprzedzenia. Pod presją czasu ludzie mają tendencję do bezrefleksyjnego akceptowania sugestii algorytmów. Tymczasem dokładność modeli generatywnych bywa niepokojąco niska – w niektórych testach sięga zaledwie 25-30 procent. Błędy wynikają z ogromnych zbiorów danych, które łatwo mogą zostać zmanipulowane lub skażone dezinformacją.

Relacje między Departamentem Obrony a firmą Anthropic są napięte. Pentagon określił Anthropic mianem „ryzyka łańcucha dostaw”, co sugeruje dążenie do uniezależnienia się od zewnętrznych dostawców technologii. Same przedsiębiorstwa technologiczne również dystansują się od bezpośredniego udziału w operacjach. Mimo to ich algorytmy działają na pierwszej linii.

Konflikty zbrojne w Gazie i Libanie pokazały, że podobne systemy nie są wynalazkiem amerykańskim. Izrael używał programów Habsora czy Lavender, które zwiększały liczbę celów z kilku do dziesiątek dziennie. To, co testowano na Bliskim Wschodzie, staje się wzorcem dla przyszłych operacji – również wobec Chin czy Rosji.

Organizacje międzynarodowe biją na alarm. ONZ ostrzega przed stronniczością algorytmów, brakiem odpowiedzialności i ryzykiem eskalacji. Sztuczna inteligencja nie zna moralnych hamulców – nie waha się, nie rozważa proporcjonalności szkód cywilnych. Badania symulacyjne pokazują, że modele AI w scenariuszach kryzysów nuklearnych eskalują konflikty w 95 procent przypadków.

Krytycy mówią o fabryce masowych zabójstw, gdzie odpowiedzialność się rozmywa. Czy błąd leży po stronie algorytmu, danych czy dowódcy? Palantir zapewnia, że oprogramowanie nigdy nie podejmuje śmiertelnych decyzji samodzielnie – człowiek zawsze pozostaje w pętli. W praktyce jednak łańcuch decyzyjny kurczy się tak bardzo, że nadzór staje się iluzoryczny.

Strategicznie Maven daje Amerykanom przewagę: szybsze reagowanie, dominacja informacyjna, mniejsze ryzyko dla własnego personelu. Eksperci nazywają to trzecią rewolucją offsetową po broni nuklearnej i technologii stealth. Ale cena może być wysoka – normalizacja wojny algorytmicznej, w której maszyny wybierają cele, a ludzie stają się jedynie formalnym punktem zatwierdzenia.

Wojna algorytmów nie ogranicza się do jednego gracza. Kraje autorytarne [?? md] ównież rozwijają podobne systemy, co grozi globalnym wyścigiem zbrojeń napędzanym sztuczną inteligencją. Firmy takie jak Palantir zarabiają na kontraktach warte ponad miliard dolarów, podczas gdy społeczeństwa tracą kontrolę nad decyzjami o wojnie.

Przekroczyliśmy granicę, za którą algorytm na dużą skalę buduje listę celów w aktywnym konflikcie zbrojnym. Pytanie nie brzmi już, czy maszyny będą uczestniczyć w wyborze celów, ale czy uda nam się utrzymać człowieka jako prawdziwe sumienie każdej operacji – nie jako pieczątkę, lecz jako ostatnią barierę przed masową destrukcją.

===================================

Źródła:

https://www.bloomberg.com/news/features/2026-03-12/iran-w…

https://www.the-independent.com/news/world/americas/proje…

https://www.economist.com/international/2026/03/11/how-am…

https://www.washingtonpost.com/technology/2026/03/04/anth…