A A A

Nie rakiety i czołgi – dobry kod najlepszą bronią

5 września 2017, 15:10 | Czytany 73
Przemowy polityków z okazji rozpoczęcia roku szkolnego to zazwyczaj komunały i życzenia dla kadry nauczycielskiej. Ale nie gdy na mównicę wychodzi Władimir Putin. Prezydent Federacji Rosyjskiej pierwszego września mówił o znaczeniu sztucznej inteligencji, która jego zdaniem jest kluczem do rządzenia światem.
Nie rakiety i czołgi – dobry kod najlepszą bronią

To, z pozoru, niewinne wystąpienie wielu odczytuje jako nieoficjalny początek wyścigu zbrojeń, w którym bronią nie będą głowice nuklearne czy niewidzialne dla radarów bombowce; ale obdarzone superinteligencją i świadomością komputery, zdolne do podejmowania samodzielnych decyzji.

O zagrożeniu jakim jest świadome AI mówią, w alarmistyczni tonie, pierwszoligowi naukowcy i inżynierowie, m.in. Stephen Hawking i Elon Musk. Ten ostatni, w reakcji ma wypowiedź Putina, stwierdził, że rywalizacja między światowymi mocarstwami na polu sztucznej inteligencji będzie prawdopodobnie przyczyną wybuchu kolejnej wojny światowej.

Tak radykalnymi wypowiedziami Musk chce przyciągnąć uwagę opinii publicznej (i pośrednio polityków), ale jednocześnie ustawia się w roli paranoika i szkodzi sprawie, o którą walczy. Wielka szkoda, bo inne wypowiedzi twórcy PayPala są bardzo rozsądne. Musk i jego poplecznicy słusznie zauważają, że rosnące możliwości AI mogą być groźne w sytuacji, gdy nie istnieją prawne regulacje ograniczające jej użycie. Nad sprawą powinno pochylić się, np. ONZ. W przeszłości organizacja skutecznie wyznaczyła, np. sposoby wykorzystania przestrzeni kosmicznej czy uregulowała polityczno-prawny status Antarktydy. A aktualnie podejmuje rozmowy w sprawie zakazu broni jądrowej.

Wśród sceptyków sztucznej inteligencji mało jest osób, które na co dzień pracują przy jej tworzeniu. Naukowcy i inżynierowie związani z nową technologią odpowiadają, że jest za wcześnie na pisanie regulacji w momencie, gdy do stworzenia tzw. twardego AI jest naprawdę daleko. To fakt, że wygrywający w Go inteligentny program AlphaGo nie wystraszy nikogo (może poza koreańskimi arcymistrzami). Ale ktoś w końcu dokona przełomu w pracach nad świadomym AI. Wiele wskazuje na to, że tempo uczenia się supermaszyny będzie wówczas znacznie wyższe niż u ludzi. Na tworzenie nowych regulacji będzie wtedy już za późno.

Dobry przykład działania przed szkodą dali ostatnio legislatorzy z Niemiec. Tamtejsze ministerstwo transportu koordynuje prace nad stworzeniem regulacji zachowań autonomicznych samochodów, z uwzględnieniem szczególnie drażliwych dylematów moralnych dotyczących ochrony życia uczestników ruchu i jego nadrzędności nad życiem zwierząt oraz bezpieczeństwem mienia. Odbywa się to w momencie gdy pozbawione kierowcy samochody poruszają się po drogach tylko pod nadzorem żywego kierowcy. Czyli zawczasu, tak jak należy.

Inną kwestią jest czy politycy i wojskowi rzeczywiście będą chcieli przekazać w ręce samodzielnego AI przycisk atomowy lub inny rodzaj broni; scedować na komputer proces oceny sytuacji i podejmowania decyzji. Dotychczasowe doświadczenia każą przypuszczać, że niestety tak. Gdy na reakcję są tylko sekundy, inteligenta maszyna działa skuteczniej niż człowiek. Pozwolić jej na podejmowanie bardzo ważnych decyzji nie bały się, np. firmy grające na Wall Street. Bez odpowiednich regulacji nie możemy mieć pewności, że w pozostałych dziedzinach życia będziemy działać ostrożniej.


Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto