ChatGPT pozwala oszukiwać i jego twórcy nie planują tego zmieniać

Piotr MalinowskiSkomentuj
ChatGPT pozwala oszukiwać i jego twórcy nie planują tego zmieniać

Wiele wskazuje na to, że firma OpenAI nie planuje utrudniać korzystania ze swojej kultowej usługi w postaci ChatGPT. Wydano właśnie dosyć wymowne oświadczenie odrzucające pogłoski o planach opatrzenia generowanych tekstów znakami wodnymi. Użytkownicy nadal będą mogli bez problemu oszukiwać i wykorzystywać zawartość bez obawy o pokrycie go trudnymi do pozbycia się elementami. Gdyby podjęto taką decyzję, to bez wątpienia popularność platformy uległaby znacznemu zmniejszeniu. Czy dowiedzieliśmy się jeszcze czegoś ciekawego?

ChatGPT bez znaków wodnych, to już postanowione

Rozmowy ze sztuczną inteligencją stały się tak naprawdę powszechną praktyką. Obecność asystentów raczej nikogo nie dziwi, ich pomoc jest niekiedy wręcz nieoceniona – zwłaszcza podczas pisania podsumowań czy generowania krótkich tekstów. AI skutecznie przeczesuje też sieć w poszukiwaniu interesującej nas zawartości. Regularnie mamy do czynienia z prezentacją kolejnych, jeszcze bardziej zaawansowanych modeli językowych. Producenci dynamicznie zwiększają możliwości tego, co potrafi wciąż rozwijająca się technologia.

Najbardziej znanym rozwiązaniem jest oczywiście ChatGPT od amerykańskiej firmy OpenAI. Generowanie tekstów nie jest obecnie obarczone jakimikolwiek ograniczeniami. Stworzoną treść bez problemu można kopiować, wklejać czy udostępniać. Nie ma mowy o jakichkolwiek znakach wodnych czy konieczności ponoszenia mniejszych bądź większych opłat. Najnowszy raport redakcji The Wall Street Journal wskazuje jednak na opracowanie stosownego systemu zabezpieczającego wykreowane dokumenty. Pracownicy nie są jednak przekonani co do słuszności wydania tak kontrowersyjnej aktualizacji.

Jedni zapewne ucieszyliby się z wdrożenia specjalnego mechanizmu – chociażby nauczyciele, którzy coraz częściej mają do czynienia z wygenerowanymi pracami uczniów. Co ciekawe, znakowanie teksów nie miałoby wpływu na ich jakość. Plany wprowadzenia update’u zresztą potwierdzono i podzielono się szeregiem ciekawostek obrazujących ewentualne zmiany. Wykorzystywana metoda jest podobno odporna na parafrazowanie dokumentów i szkodliwe działania złych aktorów. Mimo wszystko OpenAI obawia się, że zabezpieczenia wkurzyłyby konsumentów. Przeprowadzona ankieta sugeruje, iż 30 procent z nich używałoby wtedy narzędzia ChatGPT znacznie rzadziej.

Odpowiedź firmy jest dosyć niejasna

Nadal jednak trwają prace nad implementacją kontrowersyjnych zmian, ponieważ twórcy uważają je za bardzo efektywne. Testowane są również mniej inwazyjne metody, choć na razie nie znamy zbyt wielu szczegółów. Poza tym jest znacznie za wcześnie jeśli chodzi o podawanie konkretów, OpenAI zapewne podzieli się wtedy, kiedy będzie gotowe. Swego rodzaju oszukiwanie nadal jest legalne i będzie możliwe jeszcze przez bliżej nieokreślony czas.

Za pośrednictwem sekcji komentarzy koniecznie podzielcie się swoimi odczuciami dotyczącymi ewentualnego wprowadzenia znaków wodnych do generowanych tekstów. Czy jesteście zwolennikami tego rodzaju zabezpieczeń? Jesteśmy bardzo ciekawi Waszych przemyśleń!

Źródło: The Verge / Zdjęcie otwierające: unsplash.com (@solenfeyissa)

Udostępnij

Piotr MalinowskiDziennikarz z pasji i wykształcenia. Jest związany z popularnymi serwisami branżowymi, gdzie od siedmiu lat publikuje treści o nowych technologiach, gamingu oraz „ludziach internetu”. Fascynuje go wpływ influencer marketingu na społeczeństwo oraz szeroko pojęte przyczyny i skutki nierówności społecznych. Prywatnie fan powieści/filmów grozy, gier studia Piranha Bytes, podcastów kryminalnych, dobrej kawy oraz rowerowych wycieczek.