StarCraft II może być dziwnym tytułem do wyboru, jednak mimo wszystko jest to jedna z najbardziej wymagających pozycji typu RTS. Tym samym produkcja była idealna dla Google do nauki sztucznej inteligencji w kontekście samej rozgrywki. Zespół DeepMind współpracował blisko z Blizzardem oraz dwoma graczami: Dario „TLO” Wunschem oraz Grzegorzem „MaNa” Kominczem.
Sposób, w jaki sztuczna inteligencja uczyła się grać jest intrygujący. Algorytmy zaczęły naukę od oglądania powtórek oraz analizowania ich pod kątem wszystkich ruchów oraz posunięć. Następnie sztuczna inteligencja rozwijała się, powielała i generowała swoich przeciwników, spośród których każdy z nich posiadał inne, strategiczne cechy.
Na samym końcu zespół DeepMind ustawił odpowiednie parametry tak, aby algorytmy mogły konkurować z „ludzkimi” graczami. Wynik przeszedł oczekiwania wszystkich. Inżynierowie zauważyli, iż algorytmy sztucznej inteligencji często podczas rozrywki stawiali na bardziej minimalistyczne podejście w kontekście wykonywania ruchów robiąc je jednak tak, aby finalnie były one jak najbardziej efektywne. Program AlphaStar nauczył się grać w StarCrafta II w ciągu tygodnia i dokładnie po takim okresie czasu był już gotowy do rywalizowania z wybranymi przeciwnikami.
Patrząc na wynik można stwierdzić, iż to wszystko wygląda przerażająco. Technologia po raz kolejny pokazuje swoją siłę i można tylko domyślać się, do czego zostanie ona wykorzystana w przyszłości.
Źródło: SlashGear