W zeszłym miesiącu Sophie Wilm's, premier Belgii, pojawiła się w internetowym wideo, aby powiedzieć swojej publiczności, że pandemia COVID-19 była powiązana z "wykorzystywaniem i niszczeniem przez ludzi naszego środowiska naturalnego". Niezależnie od tego, czy te dwa kryzysy egzystencjalne są ze sobą powiązane, faktem jest, że Wilm's nic takiego nie powiedziała. Film został wyprodukowany przez organizację działaczy na rzecz zmian klimatycznych i był w rzeczywistości fałszywym materiałem medialnym utworzonym przy użyciu głębokiego uczenia. Deepfake to kolejny sposób rozpowszechniania dezinformacji - tak jakby nie było już wystarczająco dużo fałszywych wiadomości o pandemii.
- Ponieważ nowe środki bezpieczeństwa konsekwentnie wychwytują wiele fałszywych obrazów i filmów, ludzie mogą zostać uśpieni w fałszywym poczuciu bezpieczeństwa i uwierzyć, że mamy sytuację pod kontrolą. Niestety, może to być dalsze od prawdy, niż nam się wydaje.
Deepfakes będzie tylko łatwiejsze do wygenerowania i trudniejsze do wykrycia, gdy komputery staną się mocniejsze, a algorytmy uczenia staną się bardziej wyrafinowane. Deepfakes to koronawirus uczenia maszynowego
- powiedział profesor Bart Kosko z Wydziału Inżynierii Elektrycznej i Komputerowej w Ming Hsieh. W niedawnym artykule pochodzącym z kursu neuronowego uczenia się i inteligencji obliczeniowej profesora Kosko, magistranci inżynierii elektrycznej i komputerowej, Apurva Gandhi i Shomik Jain, pokazali, jak obrazy deepfake mogą oszukać nawet najbardziej wyrafinowane detektory przy niewielkich modyfikacjach. Równoległe badania przeprowadzone przez Google Brain zacytowały ich artykuł i rozszerzone metody tworzenia tych modyfikacji. Zespół z Uniwersytetu Kalifornijskiego w San Diego również doszedł do podobnych wniosków na temat filmów typu deepfake.
Dzisiejsze najnowocześniejsze detektory deepfake są oparte na konwolucyjnych sieciach neuronowych. Chociaż początkowo modele te wydają się bardzo dokładne, mają poważną wadę. Gandhi i Jain wykazali, że te detektory deepfake są podatne na niekorzystne perturbacje - małe, strategicznie wybrane zmiany zaledwie kilku wartości pikseli na obrazie
Jeśli deepfake jest wirusem, a detektor deepfake to szczepionka, to możesz myśleć o przeciwnych perturbacjach jako mutacji- powiedział Gandhi.
Tak jak jedna malutka mutacja wirusa może sprawić, że szczepionka stanie się bezużyteczna, tak drobne zakłócenia obrazu mogą zrobić to samo z najnowocześniejszymi detektorami deepfakeWyniki ich pracy pokazują, jak wadliwe są nasze obecne systemy bezpieczeństwa. Sieci neuronowe, początkowo zidentyfikowały ponad 95% normalnych, codziennych deepfake'ów. Ale kiedy zakłócały obrazy, detektory były w stanie wychwycić (kontrole) zero procent. W odpowiednich okolicznościach ta technika zasadniczo sprawia, że cały nasz aparat do fałszywych zabezpieczeń staje się przestarzały. W obliczu zbliżających się wyborów i pandemii zagrażającej globalnej stabilności, ich konsekwencji nie można lekceważyć.
Oczywiście celem każdego dobrego inżyniera jest dostarczenie rozwiązań, a nie tylko wskazanie wad. Na tym się właśnie skupiają Gandhiego i Jaina. Ich pierwszym pomysłem jest uczynienie sieci neuronowych bardziej odpornymi na niekorzystne perturbacje. Odbywa się to poprzez coś, co nazywa się regularyzacją, strategią, która poprawia stabilność sieci neuronowej, gdy jest ona nadal trenowana.
Ich bardziej obiecującą strategią jest jednak coś, co nazywa się ,,the deep image prior defense'' . Zasadniczo proces ten próbuje usunąć te podstępne zakłócenia z obrazów przed przesłaniem ich do detektora. Aby rozwinąć tę technikę, wykorzystano dwa kreatywne algorytmy, pierwotnie napisane w celu poprawy jakości obrazu. Podczas gdy wcześniejsza obrona głębokiego obrazu zidentyfikowała zakłócone deepfakes z 95% dokładnością, algorytm jest bardzo powolny. Przetwarzanie tylko jednego obrazu może zająć 20-30 minut. "Pilnym wyzwaniem jest znalezienie bardziej wydajnych metod, potencjalnie bez sieci neuronowych, w celu ulepszenia detektorów deepfake, tak aby były one odporne na niekorzystne zakłócenia" - powiedział Jain. "Następnie te techniki mogłyby ulepszyć wrażliwe detektory na platformach takich jak media społecznościowe".