Wykorzystując widzenie maszynowe nowy mechanizm ma oznaczać potencjalnie niepożądane treści i sortować je według prawdopodobieństwa łamania prawa. Następnie tak przygotowane materiały trafią do moderatorów. Według firmy z Mountain View może to zwiększyć efektywność pracy o 700 procent – podobno potwierdzono to w jednym z wewnętrznych testów firmy.
„Szybka identyfikacja nowych obrazów oznacza, że dzieci, które są dziś wykorzystywane seksualnie, będą miały znacznie większe szanse na identyfikację i ochronę przed dalszymi nadużyciami” – napisali w poniedziałek na blogu firmowym Nikola Todorovic i Abhi Chaudhuri. „Udostępniamy to bezpłatnie organizacjom pozarządowym i partnerom branżowym za pośrednictwem naszego Content Safety API”
Wcześniej w tym celu serwisy pokroju Facebooka korzystały z prostych robotów wyłapujących treści już kiedyś oznaczone przez moderację jako szkodliwe. W przeciwieństwie do nich, sztuczna inteligencja Google’a pozwala wychwytywać także nowe zdjęcia. Patrząc na dzisiejszy postęp technologiczny, możemy spodziewać się, że w niedługim czasie wszystkie procesy tego typu nie będą wymagały ingerencji człowieka.
Źródło: CNET