Niesamowite. Ludzie nie potrafią już odróżnić AI od człowieka

Aleksander PiskorzSkomentuj
Niesamowite. Ludzie nie potrafią już odróżnić AI od człowieka

Czy jesteśmy w stanie odróżnić sztuczną inteligencję od prawdziwego człowieka? To pytanie tak naprawdę nurtuje naukowców i filozofów od dziesięcioleci, a teraz staje się bardziej aktualne niż kiedykolwiek wcześniej. Najnowsze badania sugerują, że ludzie mają coraz większe trudności z odróżnieniem zaawansowanych modeli AI, takich jak GPT-4, od żywych rozmówców.

Test Turinga, zaproponowany przez brytyjskiego matematyka Alana Turinga w 1950 roku, miał być miernikiem zdolności maszyn do naśladowania ludzkiej konwersacji. Polega on na tym, że człowiek prowadzi rozmowę z nieznanym rozmówcą i próbuje określić, czy jest to faktycznie inny człowiek, czy może program komputerowy. Przez długi czas uważano, że żaden model AI nie jest w stanie przejść tego testu.

Najnowsze badania zdradzają ciekawą rzecz

Najnowsze badanie przeprowadzone przez naukowców z Uniwersytetu Kalifornijskiego w San Diego rzuca nowe światło na opisywaną kwestię. Cameron Jones i Benjamin Bergen poddali ocenie trzy modele: klasyczny „chatbot” ELIZA z lat 60., oraz dwa nowoczesne modele językowe – GPT-3.5 i GPT-4. Uczestnicy eksperymentu prowadzili pięciominutowe konwersacje z człowiekiem lub jednym z tych modeli AI, a następnie oceniali, czy ich rozmówca był człowiekiem czy maszyną.

Wyniki są zaskakujące. O ile ELIZA została uznana za człowieka tylko w 22% przypadków, to najnowszy model GPT-4 osiągnął wynik aż 54%. Oznacza to, że statystycznie co druga osoba nie była w stanie odróżnić sztucznej inteligencji od prawdziwego człowieka! Dla porównania, sami ludzie byli poprawnie uznawani za ludzi w 67% przypadków. GPT-4 znacząco zawęził więc lukę, która istniała do tej pory pomiędzy AI a człowiekiem w teście Turinga. 

Co ciekawe, uczestnicy badania, oceniając swoich rozmówców, zwracali większą uwagę na styl językowy i czynniki społeczno-emocjonalne, niż na wiedzę i zdolności rozumowania. A przecież to właśnie te elementy są, tradycyjnie kojarzone z inteligencją. Sugeruje to, że ChatGPT-4 opanował nie tylko merytoryczną stronę konwersacji, ale także subtelne niuanse zarezerwowane do tej pory dla ludzkiej komunikacji.

Badacze podkreślają, że wynik 54% dla modelu GPT-4 prawdopodobnie wyznacza dolną granicę jego możliwości. W warunkach eksperymentalnych uczestnicy byli bowiem bardziej wyczuleni na to, iż muszą oceniać czy rozmawiają z innymi ludźmi czy z AI. Podczas codziennej interakcji w sieci, kiedy nie spodziewasz się rozmowy z botem, odsetek pomyłek mógłby być jeszcze wyższy.

Gdzie bezpieczeństwo?

Rodzi to oczywiście wiele pytań natury etycznej i praktycznej. Systemy AI zdolne do niezauważalnego podszywania się pod ludzi mogłyby znaleźć szerokie zastosowanie w czarnych scenariuszach. Mowa tu oczywiście m.in o obsłudze klienta, szerzeniu dezinformacji czy wyłudzaniu danych. Nie rozumiem dlaczego tak mało osób zwróciło na to uwagę podczas ostatniej prezentacji Microsoftu. Tej, na której firma z Redmond pokazała ulepszoną wersję swojego asystenta Copilot

Z drugiej strony, wyniki badania można interpretować optymistycznie. To dowód na to, że jako ludzie stworzyliśmy systemy zdolne do głębokiego zrozumienia i naśladowania naszej naturalnej komunikacji. Tym samym otworzyliśmy ekscytujące możliwości nie tylko w dziedzinie przetwarzania języka naturalnego, ale też w badaniach nad naturą inteligencji i ludzką świadomością.

I tutaj muszę dodać jeszcze jedno. Sam test Turinga od początku budził kontrowersje. Niektórzy argumentowali, że jest on zbyt ograniczony, by uchwycić pełnię ludzkiej inteligencji. Inni wskazywali, że maszyna mogłaby go pokonać wykorzystując sprytne oszustwo, niekoniecznie bazując na prawdziwej inteligencji. Co o tym sądzicie?

Pytania wciąż się mnożą 

Niezależnie od ostatecznej interpretacji, jedno jest pewne: granica między człowiekiem a maszyną po prostu się zaciera. Modele takie, jak GPT-4 imponują nie tylko swoją skutecznością, ale też skłaniają do refleksji nad tym, co właściwie czyni nas ludźmi. Czy jest to perfekcyjna składnia i ortografia, czy raczej umiejętność okazywania emocji, żartowania i nawiązywania relacji? Trudne pytania.

Kiedy się o tym zastanawiam, to myślę, że być może w miarę dalszego rozwoju AI powinniśmy przeformułować pierwotne pytanie Turinga. Zamiast zastanawiać się, czy maszyny potrafią nas udawać, powinniśmy zapytać raczej o to, co możemy osiągnąć dzięki synergii ludzkich i komputerowych “umysłów”. 

Badanie Jonesa i Bergen , które dla Was opisałem, to bez wątpienia kamień milowy w rozwoju AI. Przed nami jednak jeszcze długa i wyboista droga. GPT-4 zaimponował swoimi umiejętnościami, ale prawdziwie myśląca maszyna to wciąż bardzo odległy technologicznie cel. Czy kiedykolwiek go osiągniemy? 

Czas pokaże.

Źródło: własne, arXiv / fot. tyt. Canva

Udostępnij

Aleksander PiskorzDziennikarz technologiczny - od niemal dekady publikujący w największych polskich mediach traktujących o nowych technologiach. Autor newslettera tech-pigułka. Obecnie zajmuje się wszystkim co związane z szeroko pojętym contentem i content marketingiem Jako konsultant pomaga również budować marki osobiste i cyfrowe produkty w branży technologicznej. Entuzjasta sztucznej inteligencji. W trybie offline fan roweru szosowego, kawy specialty i dobrej czekolady.