Sprawdź też: Biznes założony przez ChatGPT ma się nie najgorzej
ChatGPT przed sądem
Koszty związane z korzystaniem z usług radców prawnych, notariuszy i adwokatów nie należą do niskich. Gdy zatem konsumenci zdecydują się po nie sięgnąć, spodziewają się pomocy na najwyższym poziomie. Jeden z amerykańskich prawników postanowił wybrać drogę na skróty i zaoszczędzić nieco czasu w pracy. Wykorzystał ChatGPT na etapie składania wniosku do sądu federalnego. Jak szybko przekonał się na własnej skórze, weryfikacja faktów przez człowieka jest szalenie ważna, zwłaszcza gdy sztuczna inteligencja ma skłonność do ich zmyślania.
Adwokat Steven A. Schwartz został zatrudniony przez klienta do reprezentowania go w sprawie o spowodowanie obrażeń ciała przeciwko Avianca Airlines. Zgodnie z roszczeniem, klient Schwartza został rzekomo uderzony w kolano wózkiem do obsługi podczas lotu na międzynarodowe lotnisko im. J. F. Kennedy’ego w 2019 roku. Jak można się było spodziewać, linia lotnicza zwróciła się do sędziego federalnego z Manhattanu o oddalenie sprawy, czemu Schwartz natychmiast się sprzeciwił. Szło dobrze do momentu, w którym Schwartz skorzystał z ChatGPT.
Nie przegap: Jeden z pionierów AI ostrzega: sztuczna inteligencja zagrozi ludzkości
Lenistwo i wygodnictwo nie zawsze popłaca
W swoim sprzeciwie wobec wniosku Avianca Airlines, Schwartz przedłożył 10-stronicowy raport, powołując się na kilka istotnych orzeczeń sądowych. Cytaty odnosiły się do podobnych spraw, w tym Martinez przeciwko Delta Air Lines, Zicherman przeciwko Korean Air Lines i Varghese przeciwko China Southern Airlines. Ostatni cytat zawierał nawet obszerny komentarz na temat prawa federalnego. Jak zapewne się domyślacie, syntezę przygotował poproszony o to chatbot. Pojawił się problem polegający na tym, że… wszystkie te sprawy zostały zmyślone.
A NY lawyer is facing judicial sanction after using #ChatGPT to prepare a legal brief filed in a Manhattan court. The cases cited by #ChatGPT were all bogus. On the brighter side of things, #AI may not be replacing lawyers any time soon. https://t.co/fHGkQZhxRk
— Dr. Gideon Christian (@ProfXtian) May 27, 2023
Gdy tylko sędzia P. Kevin Castel wytknął nieprawdziwość przytaczanych spraw, Schwartz od razu zapewnił, że nie miał zamiaru oszukać sądu ani linii lotniczej. Wyraził również ubolewanie z powodu sięgnięcia po sztuczną inteligencję, przyznając przy tym, że… nigdy wcześniej nie korzystał z ChatGPT i „nie był świadomy tego, że jego odpowiedzi mogą być fałszywe”. Zgodnie z oświadczeniami Schwartza, w pewnym momencie próbował zweryfikować autentyczność cytatów… pytając sztuczną inteligencję o to, czy przytoczone przez nią przypadki były rzeczywiście prawdziwe. Zaufał, gdy ChatGPT odpowiedział twierdząco.
Kolejna rozprawa odbędzie się 8 czerwca. Zostanie na niej umówione między innymi to, czy i jak ukarać Schwartza za jego… kreatywne podejście do tematu.
Zostałeś ostrzeżony
Jeżeli wykorzystujesz ChatGPT do odrabiania prac domowych lub w swojej pracy, uważaj. Sztuczna inteligencja może wpędzić Cię w tarapaty. Zgadnij, kto poniesie za to odpowiedzialność.
Źródło: New York Times