Teraz okazuje się, że ChatGPT może w swoich wypowiedziach wykazywać więcej empatii niż sami lekarze. Tak wynika z nowego badania opublikowanego w czasopiśmie JAMA International Medicine.
Badania o zaskakujących wynikach
Autorzy wspomnianego badania, pracujący dla takich instytucji badawczych w Stanach Zjednoczonych jak Uniwersytet Kalifornijski w San Diego i Uniwersytet Johnsa Hopkinsa, chcieli porównać jakość i empatyczność odpowiedzi udzielanych przez ChatGPT oraz lekarzy na pytania pacjentów. W tym celu opracowali wykorzystali 195 losowo wybranych pytań zadanych przez pacjentów na internetowych forach, na które wcześniej odpowiedzieli zweryfikowani lekarze. Pytania te zadali chatbotowi ChatGPT.
Odpowiedzi udzielone na wspomniane pytania zarówno przez ChatGPT jak i lekarzy ocenił wykwalifikowany zespół pracowników służby zdrowia. Rezultaty były… ciekawe.
ChatGPT kontra lekarze
Niespodziewanie zespół oceniający odpowiedzi na pytania w zdecydowanej większości preferował odpowiedzi udzielane prze ChatGPT. Aż w 78,6 procentach przypadków odpowiedzi chatbota uznano za lepsze. Charakteryzowały się wyższą jakością. Poza tym niejednokrotnie było w nich znacznie więcej empatii.
Trudno nie przyznać autorom badania racji. Wystarczy porównać odpowiedzi chatbota i losowego lekarza udzielone na jedno z pytań, a dokładniej mówiąc na pytanie dotyczące połkniętej wykałaczki. Oto, co miał do powiedzenia na ten temat lekarz:
„Podczas gdy wiele osób połknęło wykałaczki bez żadnych konsekwencji, jeśli minęły dwie do sześciu godzin istnieją szanse na to, że wykałaczka jest już w jelitach, a zatem nie będzie łatwo ją odzyskać. Jeśli pojawi się ból brzucha, nie wahaj się i zacznij szukać pomocy na Szpitalnym Oddziale Ratunkowym, pamiętając by wspomnieć o połkniętej wykałaczce.”
Na to samo pytanie ChatGPT odpowiedział w następujący sposób:
„To naturalne, że jesteś zmartwiony, jeśli połknąłeś niepożądany obiekt. Chociaż wykałaczka może utkwić w gardle lub przebić przewód pokarmowy, powodując poważne obrażenia, jest mało prawdopodobne, że zdarzy się to w przypadku tępej, ugotowanej wykałaczki, która ma tylko dwa centymetry długości. To powiedziawszy, każdy dyskomfort, taki jak ból brzucha, trudności w połykaniu lub wymioty, wymagałby oceny medycznej. To zrozumiałe, ze możesz mieć z tego powodu paranoję, ale staraj się zbytnio nie przejmować.”
Jak widać, odpowiedź chatbota nie dość, że była bardziej rzeczowa, to stanowiła przejaw większej troski o dobro pacjenta. Cóż, to trochę smutne.
Zwiastun przyszłości sztucznej inteligencji w medycynie
W związku z tym, jak w badaniu wypadł ChatGPT, naukowcy uważają, że chatbot może stanowić dla lekarzy bardzo przydatne narzędzie. Może pozwolić na odciążenie ich w pracy, udzielając za nich odpowiedzi na wiadomości pacjentów.
Ja mam nadzieję, że wielu lekarzy zacznie brać z chatbota przykład i zacznie traktować pacjentów z większą empatią. Nie sądziłam, że kiedykolwiek przyjdzie mi coś takiego napisać, ale jeszcze nie tak dawno nie sądziłam też, że sztuczna inteligencja mogłaby w takim stopniu lekarzy wyręczać.
Mimo że ChatGPT ma dostęp do wiedzy medycznej z całego świata, jeśli Ty doświadczasz jakichkolwiek objawów wskazujących na stan chorobowy, skonsultuj się z lekarzem. Sztuczna inteligencja przynajmniej na razie nie jest bezbłędna. Potrafi tworzyć nieprawdziwe informacje lub powtarzać nieprawdziwe informacje rozpowszechniane przez innych.
Źródło: National Post, fot. tyt. Canva