Czarny scenariusz
Dlaczego powyższa odpowiedź brzmi właśnie tak? Głównie dlatego, że zdaniem badaczy, by móc kontrolować superinteligentną sztuczną inteligencję, której możliwości wykraczałyby daleko poza ludzkie zrozumienie, musielibyśmy wcześniej stworzyć symulację takiej sztucznej inteligencji i ją przeanalizować. Problem w tym, że jako nie jesteśmy w stanie jej zrozumieć, nie możemy takiej symulacji stworzyć.
Jak sugerują autorzy najnowszej pracy naukowej poświęconej omawianemu tematowi, opublikowanej w czasopiśmie Journal of Artificial Intelligence Research, nie możemy zabronić superinteligentnej sztucznej inteligencji krzywdzenia ludzi, skoro nie możemy pojąć, jakie scenariusze ta wymyśli. Gdy system komputerowy działa na poziomie przekraczającym możliwości programistów, nie można ustalić jej limitów.
„Superinteligencja stanowi zasadniczo inny problem niż te, które zwykle badane są pod hasłem ‘etyki robotów’.”, piszą naukowcy. „To dlatego, że superinteligencja jest wielopłaszczyznowa, a zatem potencjalnie zdolna do mobilizowania przeróżnych zasobów w celu osiągania celów, których ludzie nie są w stanie zrozumieć, a co dopiero kontrolować.”
Problem stopu
Rozumowanie badaczy ma związek z tak zwanym „problemem stopu” – zagadnieniem algorytmicznym, które jako pierwszy przedstawił Alan Turing, w 1936 roku. To odpowiada, dla danego algorytmu, czy realizujący go program zatrzyma się i zrealizuje swoje zadanie (w skończonym czasie), czy też będzie bezskutecznie próbował dokonać tego w nieskończoność. Jak Turing udowodnił, chociaż w przypadku niektórych programów da się przewidzieć, w przypadku większości, która kiedykolwiek zostanie napisana, logicznie nie jest to możliwe.
Każdy program napisany po to, by powstrzymał sztuczną inteligencję przed skrzywdzeniem ludzi i zniszczeniem cywilizacji zatrzyma się lub nie – matematycznie nie jest możliwe, abyśmy mieli pewność, który scenariusz dojdzie do skutku. To oznacza, że nie będziemy w stanie superinteligentnej sztucznej inteligencji kontrolować.
„W efekcie algorytm powstrzymujący jest bezużyteczny.”, powiedział Iyad Rahwan z Max Planck Institute for Human Development w Berlinie.
Zdaniem niektórych uczonych alternatywą do uczenia sztucznej inteligencji etyki oraz zwyczajnego instruowania jej, by ta nie niszczyła świata, jest ograniczenie możliwości superinteligentnej sztucznej inteligencji. To miałoby się odbyć na przykład poprzez odcięcie jej od części Internetu czy niektórych sieci. Autorzy nowego badania odrzucają jednak nawet ten pomysł, sugerując, że ograniczyłoby to zasięg sztucznej inteligencji. Ich zdaniem tworzenie sztucznej inteligencji w celu rozwiązywania problemów, których sami nie jesteśmy w stanie rozwiązać tylko po to, by jej w tym celu nie wykorzystywać, nie ma sensu.
Kolejne niepokojące wnioski
Co istotne, tworząc coraz to lepsze sztuczne inteligencje, możemy nawet nie wiedzieć, w którym momencie opracujemy superinteligentną sztuczną inteligencję, której nie będziemy mogli kontrolować. Oznacza to, że powinniśmy zacząć poważnie rozmyślać nad tym, w jakim kierunku ta dziedzina nauki zmierza.
„Superinteligentna maszyna, która ma władzę nad światem, brzmi jak science-fiction.”, stwierdził Manuel Celebrian z Max Planck Institute for Human Development. „Ale już istnieją maszyny, które wykonują pewne ważne zadania niezależnie, a programiści nie rozumieją w pełni, jak się tego nauczyły. Należy zatem zadać pytanie, czy w pewnym momencie takie maszyny mogą stać się niemożliwe do kontrolowania i niebezpieczne dla ludzkości.”
Cóż, mam nadzieję, że scenariusz rodem z Buntu Maszyn nigdy nie nastąpi. Istnieje jednak szansa, że tak właśnie się stanie.
Źródło: Towarzystwo Maxa Plancka, fot. tyt. Pixabay/Tumisu