OpenAI rozwiązało swój zespół “Superalignment”. Jednostka utworzona zaledwie rok temu miała na celu zapewnienie kontroli nad superinteligentnymi systemami AI w przyszłości. Prace zespołu zostaną wchłonięte przez inne grupy badawcze w firmie. Ruch ten zbiega się z odejściem dwóch kluczowych liderów – współzałożyciela i głównego naukowca Ilyi Sutskevera oraz współlidera zespołu Superalignment, Jana Leike.
W serii swoich tweetów Leike ujawnił napięcia między zespołem ds. bezpieczeństwa a resztą firmy. Twierdził, że od dłuższego czasu nie zgadzał się z kierownictwem OpenAI co do priorytetów i w końcu dotarł do „punktu krytycznego”. Według Leike, w ostatnich latach kultura pracy i procesy bezpieczeństwa zeszły na dalszy plan, ustępując miejsca „błyszczącym nowościom”. Zespół Jana Leike zmagał się z brakiem dostępu do zasobów obliczeniowych, co utrudniało kluczowe badania.
Obawy o podejście do Artificial General Intelligence
Leike podkreślił pilną potrzebę poważnego podejścia do implikacji, które mogą powstać po stworzeniu AGI – superinteligentnej AI przewyższającej ludzi. Leike nie jest pierwszym naukowcem, który wzywa do natychmiastowego przygotowania się na taką sytuację. Naukowiec uważa też, że OpenAI powinno poświęcać więcej uwagi przygotowując się do wydania kolejnych generacji modeli AI. I to nie tylko pod kątem technicznym. Leike zwrócił uwagę również na kwestie bezpieczeństwa, odporności na ataki oraz ogólny wpływ na społeczeństwo.
W odpowiedzi na zarzuty naukowca, prezesi OpenAI Greg Brockman i Sam Altman twierdzą, że firma zwiększyła procedury oceny ryzyka i możliwości związanych z AGI, wzywała do międzynarodowego nadzoru i cały czas ewaluuje modele AI pod kątem różnego ryzyka. Szefowie przedsiębiorstwa twierdzą także, że OpenAI stworzyło podstawy do bezpiecznego wdrażania coraz potężniejszych systemów, choć przyznają, że zapewnienie bezpieczeństwa nowej technologii nie jest i nigdy nie było łatwe.
Na jaw wychodzą kolejne dziwne kwestie
W ostatnich godzinach w sieci ujawniono, iż OpenAI stosuje bardzo restrykcyjne umowy z odchodzącymi pracownikami. Znajduje się w nich groźba utraty zarobionych udziałów w przypadku krytykowania byłego pracodawcy. Sam Altman przyznał, że zapisy o potencjalnym anulowaniu udziałów nigdy nie powinny znaleźć się w tak istotnych dokumentach. Altman przyznał, że jest zawstydzony tą sytuacją i zmieni przepisy w umowach dla swoich pracowników.
Trwające odejścia kluczowych badaczy, w tym najbardziej doświadczonych członków zespołu ds. bezpieczeństwa, rodzą wątpliwości co do zaangażowania OpenAI w deklarowany cel tworzenia odpowiedzialnej sztucznej inteligencji. Rozwiązanie zespołu Superalignment sugeruje, że długoterminowe ryzyko egzystencjalne związane z tymi systemami może nie być traktowane priorytetowo. Odejście Sutskevera i Leike to najnowsze z serii głośnych rezygnacji w OpenAI w ostatnich miesiącach.
Co dalej?
Wysiłki OpenAI w zakresie bezpieczeństwa AI będą teraz nadzorowane przez współzałożyciela Johna Schulmana, którego badania koncentrują się na dużych modelach językowych. Jakub Pachocki, Polak, który kierował rozwojem modelu GPT-4o, zastąpi Ilyę Sutskevera na stanowisku głównego naukowca. OpenAI zadeklarowało również dalszą współpracę z ekspertami zewnętrznymi, aby zaadresować pojawiające się obawy społeczne w zakresie sztucznej inteligencji.
Gwałtowny postęp w dziedzinie AI w ostatnim roku skłonił niektórych ekspertów i liderów branży do wezwania do tymczasowego wstrzymania prac nad systemami potężniejszymi niż GPT-4. Odejścia kluczowych naukowców i kontrowersje wokół kultury bezpieczeństwa w OpenAI rodzą pytania o zdolność firmy do odpowiedzialnego rozwoju AGI. Jednocześnie nowe regulacje, takie jak obowiązek informowania rządu USA o potężnych modelach AI, mogą dać decydentom wgląd w najbardziej wrażliwe projekty gigantów technologicznych. Nie zapominajmy także o europejskim AI Act.
Jak będzie jednak wyglądać przyszłość? Tego niestety nie wie nikt.
Źródło: Hacker News / fot. Unsplash.com