NVIDIA w przełomowy sposób uczy sztuczną inteligencję nowych sztuczek (wideo)

Maksym SłomskiSkomentuj
NVIDIA w przełomowy sposób uczy sztuczną inteligencję nowych sztuczek (wideo)
Naukowcy z całego świata tworzą coraz lepsze sztuczne inteligencje. Ich opracowywanie to nie lada wyzwanie, zwłaszcza że do tego, aby je wytrenować, potrzebne są dane – które trzeba zebrać, albo za które trzeba zapłacić. NVIDIA przygotowała jednak przełomowe rozwiązanie, które pozwala skutecznie trenować systemy sztucznej inteligencji z użyciem ograniczonej ilości danych.

Generatywne Sieci Przeciwstawne

W szczególności mamy tu na myśli tak zwane systemy GAN. Algorytmy GAN to Generatywne Sieci Przeciwstawne, które uczą się z pomocą tak zwanych generatorów i dyskryminatorów. Zwykle generator tworzy na podstawie dostarczanych informacji obrazy, które mają wyglądać niczym rzeczywiste zdjęcia, a dyskryminator, który otrzymuje zarówno obrazy wygenerowane, jak i dostarczone z zasobów innej sieci neuronowej, musi je od siebie odróżniać. Proces nauczania kończy się, gdy generator zaczyna tworzyć obrazy tak podobne do rzeczywistych zdjęć, że dyskryminator przestaje być w stanie wychwytywać różnice.

Aby wytrenować sztuczną inteligencję typu GAN, która rzeczywiście będzie tworzyć wiarygodne obrazy, zwykle trzeba wykorzystać aż 50 tysięcy do 100 tysięcy zdjęć. To niemało. Jeżeli w procesie nauczania użyje się zbyt małej liczby zdjęć, system napotka na problem zwany „nadmiernym dopasowywaniem” (ang. overfitting). Wówczas dyskryminator nie będzie dysponować wystarczająco dużą bazą obrazów, aby skutecznie weryfikować dzieła generatora.

Skuteczna metoda

W przeszłości powyższy problem próbowano obchodzić, stosując podejście znane jako „rozszerzanie danych” (ang. data augmentation). W przypadku dostępu do zbyt małej bazy danych po prostu tworzono zniekształcone kopie obrazów, które posiadano. Te obrazy przycinano, obracano czy też przerzucano w pionie i w poziomie. W skrócie chodziło o to, aby algorytmy nigdy nie miały do czynienia dwa razy z tym samym zdjęciem.

Niestety, z „rozszerzaniem danych” wiązał się pewien problem. Podejście to prowadziło do sytuacji, w których system GAN uczył się naśladować wspomniane zniekształcenia zamiast tworzyć nowe obrazy. Nowe, przełomowe rozwiązanie firmy NVIDIA, określane jako ADA (ang. adaptive discriminator augmentation), także polega na stosowaniu zniekształconych danych, ale danych zniekształconych w sposób adaptacyjny. W jego ramach nie są zniekształcane w trakcie całego procesu treningowego, a wybiórczo – na tyle, aby GAN nie doświadczył problemu „nadmiernego dopasowywania”.

Osiągnięcie NVIDII ma większe znaczenie, niż mogłoby się zdawać. W końcu, nie w każdej dziedzinie ilość danych jest tak duża, by odpowiednio wytrenować sieć GAN. Mowa na przykład o medycynie. Problematyczne byłoby chociażby wytrenowanie sztucznej inteligencji, która miałaby wykrywać jakiś rzadki rodzaj nowotworu. Skoro mowa o rzadkim rodzaju nowotworu, liczba dostępnych zdjęć, które go przedstawiają, jest niewielka. Rozwiązanie NVIDII pozwoli takie wyzwania pokonywać.

Źródło: NVIDIA, fot. tyt. NVIDIA

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.