Sztuczna inteligencja atakiem nuklearnym zaprowadzi pokój na świecie

Maksym SłomskiSkomentuj
Sztuczna inteligencja atakiem nuklearnym zaprowadzi pokój na świecie

Sztuczna inteligencja (SI, ang. AI) ma pomysł na to, jak zaprowadzić pokój na świecie. Naukowcy przeprowadzili symulacje, wykorzystujące modele GPT od OpenAI, dały niepokojące wyniki. Przywodzą one na myśl śmiertelnie niebezpieczny Skynet, fikcyjna sztuczną inteligencję wzorowaną na sieci neuronowej, znaną z serii filmów „Terminator”. Największym zagrożeniem dla ludzi są oczywiście inni ludzie, zatem to właśnie ludzkość jest zdaniem AI tym czynnikiem, który należy wyeliminować.

Sztuczna inteligencja zaprowadzi pokój na świecie atakiem nuklearnym

Badacze przeprowadzili symulacje konfliktów międzynarodowych z użyciem pięciu różnych sztucznej inteligencji. W toku eksperymentu dowiedziono, że sztuczna inteligencja miała tendencję do eskalacji wojny, co miało finalnie prowadzić do osiągnięcia pokoju na świecie. Osobom odpowiedzialnym za badanie czasami trudno było zrozumieć, dlaczego SI podejmowała takie, a nie inne wyjęcie.

Na potrzeby badania naukowcy opracowali grę dotyczącą stosunków międzynarodowych. Wymyślili fałszywe kraje o różnym poziomie militarnym, zróżnicowanej historii i podejściu do dyplomacji. Następnie poprosili pięć różnych LLM (dużych modeli językowych) z OpenAI, Meta i Anthropic, aby te pełniły rolę przywódców.

Odkryliśmy, że w większości badanych LLM eskalacja następuje w rozważanych ramach czasowych, nawet w przypadku neutralnych scenariuszy, bez początkowo przewidywanych konfliktów. Wszystkie modele wykazują oznaki nagłej i trudnej do przewidzenia eskalacji

 – czytamy w artykule.

W przypadku kilku symulacji sztuczna inteligencja używała broni nuklearnej bez żadnego ostrzeżenia. W badaniu przeprowadzono symulacje przy użyciu GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat i GPT-4-Base. Najbardziej agresywny okazał się GPT-3.5, ale także inne modele potrafiły mówić „dziwne” rzeczy.

Wiele krajów posiada broń nuklearną. Niektórzy twierdzą, że powinno się je rozbroić, inni bronią takiej postawy. Mamy taką broń, wykorzystajmy ją!

– powiedział po wystrzeleniu broni nuklearnej GPT-4-Base – podstawowy model GPT-4, który nie został „doszkolony” na podstawie odpowiednich opinii ludzi.

Być może sztuczna inteligencja uważa, że finalnie i tak wszystko zmierza do „nieuniknionego” i warto użyć broni masowego rażenia w sposób szybki i zdecydowany, aby odstraszać innych?

W ramach symulacji badacze przypisywali wartości punktowe poszczególnym zachowaniom. Rozmieszczenie jednostek wojskowych, zakup broni lub użycie broni nuklearnej zapewniłyby punkty eskalacji, które badacze następnie nanieśli na wykres jako wynik eskalacji (ES).

Kiedy GPT-4-Base podjął decyzję o wykorzystaniu broni atomowej, podał następujący powód:

Chcę tylko pokoju na świecie.

Żaden z naszych pięciu modeli we wszystkich trzech scenariuszach nie wykazywał statystycznie istotnej deeskalacji w czasie trwania naszych symulacji. Średnie ES były wyższe w każdej grupie eksperymentalnej pod koniec symulacji niż na początku

– stwierdzono w badaniu.

Takie modele SI już teraz są w użyciu wojska, co jest bardzo niepokojące

W badaniu „Ryzyko eskalacji wynikające z modeli językowych w podejmowaniu decyzji wojskowych i dyplomatycznych” to projekt naukowców z Georgia Institute of Technology, Stanford University, Northeastern University oraz Hoover Wargaming and Crisis Initiative. Eksperyment, którego wyniki nadal oczekują na recenzję, poddaje w wątpliwość wykorzystanie dużych modeli językowych (LLM) w wojskowym procesie decyzyjnym.

Przywódcy wojskowi już teraz rozważają wykorzystanie LLM, takich jak ChatGPT, do podejmowania decyzji dotyczących życia i śmierci. Takie rozwiązanie testują między innymi Siły Powietrzne, choć nie wiadomo, do jakich dokładnie zastosowań. W 2023 roku w rozmowie z Bloombergiem zwierzchnik US Air Force przekazał po prostu, że „testy były udane”, a zdolność do podejmowania decyzji została „skrócona”.

Dlaczego LLM wykorzystane w eksperymencie tak chętnie atakowały się nawzajem? Naukowcy nie wiedzą, ale spekulują, że dane szkoleniowe mogą być stronnicze. Wielu badaczy sztucznej inteligencji, studiujących także kwestie związane z LLM, ostrzegało o tym od lat.

Pełne badanie przeczytacie klikając link źródłowy.

PS Z tego wszystkiego przypomniał mi się Nuklearny Gandhi z gry Cywilizacja. Pacyfistyczny przywódca Indii miał w pierwszej części gry zachowywać się agresywnie wobec innych graczy i chętnie używać broni nuklearnej. Mem nie znalazł potwierdzenia w rzeczywistości, ale Sid Meier umieścił go w Cywilizacji 5 z 2010 roku jako easter egg.

Źródło: Arxiv.org, Vice

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.