Sieć neuronową stworzył zespół badaczy z Uniwersytetu Kalifornijskiego w Riverside, który wykorzystał dużą bazę danych zawierającą zdjęcia zwykłe oraz „zmanipulowane” zdjęcia deepfake. Naukowcy wiedzieli, „które zdjęcia są którymi” i odpowiednio oznaczyli je komputerowo. Oznaczenia dotyczyły pikseli stanowiących granice obiektów wklejonych na obrazy zmanipulowane. Dlaczego?
Otóż, każdy obiekt widoczny na danym zdjęciu ma swoje granice. Jak wyjaśniają naukowcy, obiekt wklejony na fotografię będzie posiadał granice o innych właściwościach niż granice elementów, które znalazły się na niej naturalnie. Osoby dobrze radzące sobie z Photoshopem mogą sprawić, by te różnice nie były widoczne gołym okiem. Niemniej, to że nie można dostrzec ich gołym okiem nie oznacza, że ich wykrycie jest niemożliwe – wystarczy analiza piksel po pikselu, którą może zająć się komputer.
Naukowcy z Uniwersytetu Kalifornijskiego w Riverside wprowadzili swoją wspomnianą bazę danych do tak zwanej głębokiej sieci neuronowej. Ta stanowi zestaw algorytmów zaprojektowanych (na tyle na ile to możliwe) na wzór ludzkiego mózgu, zdolnych do wykrywania pewnych wzorców wśród surowych danych. W oparciu o bazę zdjęć, sieć nauczyła się odróżniać granice obiektów wklejonych na fotografię od granic obiektów, które były na niej od początku. Podczas testów przeprowadzonych z użyciem obrazów spoza bazy danych sztuczna inteligencja wykrywała deepfake’i „w większości przypadków”.
Póki co system potrafi radzić sobie tylko ze zdjęciami, ale kwestią czasu jest udoskonalenie go. Badacze już pracują nad tym, aby sieć neuronowa nadawała się także do analizowania filmów. W końcu, te są zaledwie seriami zdjęć.
Nie wiadomo, czy sztuczna inteligencja kiedykolwiek będzie charakteryzować się 100-procentową efektywnością, jednak nie zmienia to faktu, że może być ona ważnym narzędziem do walki z deepfake’ami.