A A A

Facebook zhakuje własny system sztucznej inteligencji

28 lipca 2020, 13:15
Zespół Red Team w Facebooku ma nietypową misję.
Facebook zhakuje własny system sztucznej inteligencji

Pracownicy Facebooka legalnie włamują się do systemu firmy.

Facebook na ogromną skalę wykorzystuje moderację opartą na sztucznej inteligencji (SI). Przez stosowane filtry teoretycznie nie powinny przedostać się nieakceptowane treści, jednak użytkownicy skutecznie zabezpieczenia te omijali. Dlatego Facebook zorganizował własną grupę specjalistów – Red Team – którzy mają oszukiwać oprogramowanie. Kieruje nim Cristian Canton, który dołączył do firmy w 2017 r.

 

Zakazane obrazy

Canton prowadził wcześniej grupę zajmującą się moderacją obrazu. Stworzone przez nią systemy SI wykrywały takie zabronione treści jak pornografia dziecięca i przemoc. Aby zbadać skuteczność algorytmów, Canton zorganizował 3-dniowy maraton wyszukiwania problemów w bazujących na SI filtrach obrazów.

Kolejnym etapem badań nad własnymi zabezpieczeniami ma być praca zespołu Red Team.

 

Czerwony patrol

Red Team zaczął hakować programy sztucznej inteligencji opracowane przez zespoły Facebooka, aby sprawdzić ich działanie. Celem jest poprawa ich skuteczności – cyberprzestępcy bowiem wymyślają coraz to nowe sposoby na oszukanie systemów uczenia maszynowego. Kreatywne podejście do testowania zabezpieczeń ma ukrócić ich działanie.

Inżynierowie Facebooka zajmujący się SI reagują od razu na wykryte luki, szkoląc swój system do coraz doskonalszego rozpoznawania zakazanych obrazów. Hakerzy sięgają po różne metody, np. nakładają na obrazy kropki lub kreski, by zmylić algorytmy. Dlatego też sztuczna inteligencja musi podążać za ich pomysłowością.

Jak mówi Manohar Paluri zajmujący się filtrami na Facebooku, niektórzy użytkownicy serwisu zaczęli omijać wymogi platformy, stosując różne wzorce działań. Jego zespół ostatecznie rozwiązał problem wychwytywania nagości przez SI: dodany mechanizm uczenia maszynowego sprawdza takie wzorce jak siatki na zdjęciach i próbuje je edytować, scalając pobliskie piksele. Proces ten nie odtwarza idealnie oryginału, ale pozwala klasyfikatorowi porno wykonywać swoją pracę bez większych pomyłek.

 

Autoatak

Grupa Facebooka odpowiedzialna za oszukiwanie systemów SI ma wyprzedzać pomysły hakerów. Atak na własne algorytmy umożliwia koncernowi skuteczniejsze stosowanie zabezpieczeń. Biblioteka mechanizmów uczenia maszynowego rośnie i dokumentuje stosowane przez cyberprzestępców „sztuczki".

Na przykład zmiana zaledwie kilku pikseli na zdjęciu spowodowała, że oprogramowanie SI miało „halucynacje" i widziało obiekty, które nie istnieją. W trakcie innego badania wykryto, że hakerzy oszukali usługę rozpoznawania obrazów Google'a – zaklasyfikowała ona karabin jako helikopter. Inne ataki polegały na „zatruwaniu danych": cyberprzestępca zmieniał informacje używane do trenowania algorytmu uczenia maszynowego, by obniżyć jego wydajność.

fot. PxHere


Tagi:
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności


Nie zapomnij o haśle!
21 czerwca 2022
Choć mogą się wydawać mało nowoczesne, hasła to nadal nie tylko jeden z najpopularniejszych sposobów zabezpieczania swoich kont, ale także...


Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto