Mamy problem. Ludzie, którzy mieli zadbać o bezpieczną AI rezygnują
OpenAI rozwiązało swój zespół “Superalignment”. Jednostka utworzona zaledwie rok temu miała na celu zapewnienie kontroli nad superinteligentnymi systemami AI w przyszłości. Prace zespołu zostaną wchłonięte przez inne grupy badawcze w firmie. Ruch ten zbiega się z odejściem dwóch kluczowych liderów – współzałożyciela i głównego naukowca Ilyi Sutskevera oraz współlidera zespołu Superalignment, Jana Leike. W serii … Czytaj dalej Mamy problem. Ludzie, którzy mieli zadbać o bezpieczną AI rezygnują
0 komentarzy