A A A

Trzecia era wojen

PC Format 5/2018
Stoimy na krawędzi wprowadzenia do arsenału najgroźniejszej broni od czasu wynalezienia bomby atomowej. Autonomiczne roboty bojowe nie tylko zmienią sposób prowadzenia wojen, ale i stanowią zagrożenie dla istnienia ludzkiej cywilizacji. Piotr Dębek

Kto tu dowodzi?


Barierę w rozwoju autonomicznych broni stanowi dzisiaj prawo i etyka. Zasady prowadzenia wojen podlegają regułom zebranym m.in. w konwencjach haskich i genewskich. Ich złamanie to zbrodnia wojenna, za którą odpowiedzialni mogą być sądzeni nawet wiele lat po zakończeniu konfliktu. I tu pojawia się problem z autonomicznymi maszynami bojowymi: kto ponosi odpowiedzialność za ich działanie? Stawianie robota przed sądem oczywiście nie ma sensu, więc czy za decyzje maszyny powinien ponieść odpowiedzialność dowódca, który je „spuścił ze smyczy”? A może producent robotów bojowych? Albo programiści, którzy opracowali algorytmy rozpoznawania dozwolonych celów?

Zabójcy za dolara

Kwestie prawno-etyczne to nie jedyna przeszkoda powstrzymująca na razie produkcję broni całkowicie autonomicznej. Jeszcze istotniejszym zagadnieniem jest zachowanie kontroli nad produkcją i dystrybucją, a to już jest problem naprawdę poważny. Wystarczy przestać wyobrażać sobie broń przyszłości w formie wielkich bezzałogowych bombowców, jak MQ-9 Reaper, czy nawet znacznie mniejszej tzw. amunicji krążącej, np. czterokilogramowego polskiego Warmate’a. To wszystko urządzenia duże, skomplikowane w produkcji i kosztowne. Miniaturyzacja pozwala jednak zredukować wielkość jednego egzemplarza do postaci malutkiego, mieszczącego się w dłoni drona, którego główną zaletą będą niskie koszty masowej produkcji. Wystarczy jeszcze dodać kilka gramów ładunku wybuchowego, a sztucznej inteligencji podać parametry celu i już można dokonać zabójstwa wybranej osoby lub tysiącami takich maszynek zaatakować przeciwnika. Wypuszczona chmura takich latawców będzie atakowała tylko ludzi noszących mundury wrogiej armii. Albo wszystkich uzbrojonych. Albo wszystkich mężczyzn. Albo wszystkich o wzroście powyżej 1,5 metra. Wystarczy zaprogramować odpowiednie parametry celu.

Miniaturowe latające bomby to nie fantastyka, ale jeden z projektów opracowywanych co najmniej od 2013 roku przez DARPA (Defense Advanced Research Projects Agency – amerykańską agencję zajmującą się wykorzystaniem nowych technologii do celów wojskowych). W przyszłym roku mają zostać przeprowadzone pierwsze polowe testy zrzucania setek takich mikrodronów z autonomicznych dronów średniego zasięgu, noszących kodową nazwę Gremlin.

Groźne jak broń atomowa, dostępne jak gwoździe

Broń atomowa, choć przerażająca, ma jedna zaletę – jest trudna w produkcji. Prawie wiek po projekcie Manhattan liczba państw, które dysponują własnym arsenałem jądrowym, nadal jest stosunkowo niewielka. Skutecznie udało się powstrzymać rozprzestrzenianie bomb A i nigdy nie wpadły one w ręce grup terrorystycznych czy ruchów partyzanckich. Z autonomicznymi robotami nie będzie tak dobrze, bo kluczowy element – sztuczna inteligencja – jest już dziś łatwo dostępny dla każdego. Takie komponenty jak oprogramowanie sterujące lotem drona, nawigacja, optyczne rozpoznawanie osób są dostępne w formie otwartych projektów, względnie łatwych w modyfikacji pod kątem zastosowań militarnych. Mechaniczne części dronów – silniczki, zasilanie, elektronika sterująca – to nie trudno dostępny uran czy wymagający skomplikowanej i kosztownej obróbki pluton. Jest bardzo wątpliwe, aby udało się ograniczyć produkcję i użycie broni autonomicznej. Obawy nie są bezpodstawne – w październiku 2016 podczas walk o iracki Irbil popularny hobbystyczny dron DJI Phantom III został uzbrojony w ładunek wybuchowy i wykorzystany przez ISIS do ataku na siły kurdyjskie. W efekcie zginęło dwóch kurdyjskich bojowników, a dwóch francuskich żołnierzy zostało rannych.

Zatrzymać to szaleństwo!


Wielkie drony latające samodzielnie, ale odpalające rakiety tylko pod nadzorem operatora – takie jak Predator – to jedno, a w pełni autonomiczne roboty bojowe to zupełnie coś innego. O czyimś życiu i śmierci nie będzie już decydował przeszkolony i ponoszący odpowiedzialność wojskowy, ale algorytm. Algorytm nie ma skrupułów, nie odczuwa empatii, nie boi się procesów sądowych. Co gorsza, nawet najbardziej skomplikowany algorytm nie osiągnie ludzkiego poziomu rozumienia sytuacji społecznych, analizy wydarzeń w kontekście i reagowania stosownie do okoliczności.

Organizatorzy kampanii Stop Killer Robots (www.stopkillerrobots.org) wskazują jeszcze jedno niebezpieczeństwo: brak własnych żołnierzy na przyszłym polu bitwy sprawi, że koszty emocjonalne i polityczne podjęcia decyzji o rozpoczęciu działań zbrojnych będą znacznie mniejsze. Wojnę będzie znacznie łatwiej zacząć, gdy za tą decyzją nie będzie szła konieczność uzasadnienia, za co właściwie umierają nasi żołnierze.

List otwarty do ONZ z wezwaniem do zakazu opracowania, produkcji i rozpowszechniania broni autonomicznych wystosowało ponad stu czołowych naukowców zajmujących się badaniami nad sztuczną inteligencją i robotyką. Prace nad robotami-zabójcami miałyby objąć takie same sankcje, jakie dotyczą broni chemicznej i biologicznej. Apel poparli m.in. Elon Musk i Stephen Hawking. Na forum ONZ za zakazem opowiedziały się 22 państwa (Polska nie znalazła się wśród nich). W listopadzie 2017 przedstawiciele 91 państw na Convention on Conventional Weapons w Genewie obradowali nad konsekwencjami i zagrożeniami związanymi z rozwojem militarnych zastosowań sztucznej inteligencji.

ONZ nie podjęło jednak żadnych decyzji w tej sprawie, podobnie jak Convention on Conventional Weapons, a w prace nad bronią autonomiczną zaangażowane są takie potęgi jak USA, Rosja, Chiny, Izrael, Korea Południowa i Wielka Brytania.

Krok od nowej ery

Wynalezienie prochu, a później broni atomowej wyznaczyło przełomy zupełnie zmieniające kształt wojen. Jesteśmy o krok od wejścia w trzecią erę wojen – konfliktów zbrojnych z użyciem broni autonomicznych. Co gorsza, ta broń nie pozostanie tylko w arsenałach armii narodowych, ale raczej prędzej niż później trafi w ręce grup przestępczych i terrorystycznych. Czy uda się temu zapobiec, czy też jest już za późno?


Tagi: sprzęt nauka
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności


Nie zapomnij o haśle!
21 czerwca 2022
Choć mogą się wydawać mało nowoczesne, hasła to nadal nie tylko jeden z najpopularniejszych sposobów zabezpieczania swoich kont, ale także...


Artykuły z wydań

  • 2024
  • 2023
  • 2022
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2011
  • 2010
  • 2009
  • 2008
  • 2007
Zawartość aktualnego numeru

aktualny numer powiększ okładkę Wybrane artykuły z PC Format 1/2022
Przejdź do innych artykułów
płyta powiększ płytę
Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto