A A A

Facebook pracuje nad lepszym wykrywaniem deepfake'ów

15 czerwca 2020, 12:35
Największy portal społecznościowy stworzył bazę 100 tys. deepfake'ów, aby nauczyć sztuczną inteligencję skuteczniejszego ich rozpoznawania.
Facebook pracuje nad lepszym wykrywaniem deepfake'ów

Wojna z podróbkami

Coraz głośniej mówi się o niebezpieczeństwie manipulowania nagraniami. Duży wpływ na przyspieszenie rozwoju technologii deepfake miała popularność aplikacji Zao, która wykorzystuje algorytmy sztucznej inteligencji do generowania obrazu na bazie przesłanego zdjęcia. Pozwalała ona wgrać fotografię do klipu wideo, programu telewizyjnego bądź filmu. Przeróbki typu deepfake stanowią według specjalistów realne zagrożenie – szczególnie dla osób publicznych.

W raporcie zespołu DeepTrace Labs wykazano co prawda, że większość przeróbek nadal jest łatwa do wykrycia ludzkim okiem, jednak technologia wciąż się rozwija i jest coraz szerzej badana, co może doprowadzić do tworzenia bardzo wiarygodnych deepfake'ów. Tylko w ciągu minionych 7 miesięcy do sieci trafiło ok. 15 tys. takich materiałów.

Wiele firm postanowiło więc wytoczyć wojnę podróbkom. Udostępniają one bazy filmów, na podstawie których można szkolić sztuczną inteligencję do lepszego wykrywania zmanipulowanych nagrań.

 

Facebook udostępnił kolejne twarze

Firmy zarządzające mediami społecznościowymi obawiają się, że podróbki mogą wkrótce zalać ich witryny. Ponieważ automatyczne wykrywanie manipulacji na filmach i obrazach jest trudne, specjaliści szkolą sztuczną inteligencję, aby lepiej sobie z tym radziła.

Wśród koncernów, które propagują wykorzystywanie SI do rozpoznawania podróbek, jest Facebook. Pracownicy Zuckerberga udostępnili 100 tys. filmów, aby pomóc w walce z deepfake'ami generowanymi przez SI. To największy w historii zestaw danych wygenerowanych w ten sposób: ponad 100 tys. klipów wyprodukowano przy współpracy 3426 aktorów i wykorzystaniu kilku technik zamiany twarzy.

 

Wielki wygrany

Facebook ogłosił również zwycięzcę konkursu Deepfake Detection Challenge, w którym 2114 uczestników zgłosiło ok. 35 tys. modeli przeszkolonych w zakresie swojego zestawu danych. Wygrał Selim Seferbekov, inżynier uczenia maszynowego w firmie Mapbox. Jego model był w stanie wykryć fałszywe wideo z 65-procentową dokładnością, a przetestowano go na zestawie 10 tys. wcześniej niewidzianych klipów.

Wszyscy uczestnicy, którzy dostali się na podium, zastosowali nowy typ splotowej sieci neuronowej (CNN) opracowany w zeszłym roku przez badaczy Google'a – o nazwie EfficientNets. Sieci CNN są powszechnie używane do analizy obrazów i dobrze sprawdzają się w wykrywaniu twarzy lub rozpoznawaniu obiektów. Jednak zwiększenie ich dokładności może wymagać jeszcze ogromu pracy i poprawek na bieżąco. EfficientNets zapewnia bardziej uporządkowany sposób dostrajania, ułatwiając opracowywanie dokładniejszych modeli.

Facebook nie planuje wykorzystywać żadnego ze zwycięskich modeli na swojej stronie. Przede wszystkim dlatego, że dokładność 65% nie jest jeszcze wystarczająco duża, aby była użyteczna. Niektóre modele osiągnęły ponad 80-procentową dokładność z danymi treningowymi, ale wynik był słabszy, gdy systemy mierzyły się w finalnym zadaniu z niewidzianymi wcześniej klipami.

Zuckerberg zdecydował o przekazaniu bazy danych Facebooka

Co dalej?

Jednym ze sposobów na poprawę skuteczności wykrywania deepfake'ów ma być skupienie się na przejściach między klatkami wideo (śledzenie ich w czasie). „Nawet bardzo wysokiej jakości grafiki frytki migoczą między ramkami" – mówi Seferbekov. Ludzie są skuteczni w wykrywaniu takich niespójności, szczególnie w odbiorze nagranych twarzy. Jednak automatyczne wykrywanie tych charakterystycznych defektów będzie wymagać większych i bardziej zróżnicowanych danych treningowych oraz znacznie większej mocy obliczeniowej. Seferbekov próbował śledzić przejścia między ramkami, ale – jak stwierdził – „procesor był tam prawdziwym wąskim gardłem".

Facebook sugeruje, że wykrywanie głębokiego fałszowania można też ulepszyć, stosując techniki wykraczające poza analizę samego obrazu lub wideo, np. poprzez ocenę kontekstu lub pochodzenia danego nagrania.

Sam Gregory, który kieruje projektem Witness, wspierającym działaczy na rzecz praw człowieka w korzystaniu z technologii wideo, dobrze ocenia inwestowanie mediów społecznościowych w wykrywanie fałszywych informacji. Witness jest członkiem konsorcjum o nazwie „Partnerstwo ds. sztucznej inteligencji" (Partnership on AI), które doradzało Facebookowi w zakresie zbioru danych. Sam Gregory podziela opinię Mike'a Schroepfera, dyrektora Facebooka ds. technicznych, że warto przygotować się na najgorsze. „To jeszcze nie jest gigantyczny problem, ale narzędzia te są bardzo nieprzyjemnym dodatkiem do dezinformacji oraz przemocy na tle płciowym" – mówi.

Raport DeepTrace Labs wykazał, że 96% deepfake'ów to obrazy pornograficzne tworzone bez zgody umieszczonych w nich osób. W takich filmach twarze ludzi doklejane są do ciał aktorów występujących w klipach porno.

fot. Brida_staright – Pixabay


Paula Jeziorska
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności

Hakerzy zaatakowali media
31 lipca 2020
Od co najmniej 3 lat hakerzy włamują się do portali informacyjnych. Na celownik wzięli też media w Polsce.



Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto