Prawnik w Australii padł ofiarą halucynacji Chat GPT. Wykorzystał sztuczną inteligencję do stworzenia podsumowania spraw śądowych na rzecz złożenia wniosku w sprawie imigracyjnej.
Jak donosi The Guardian, sędzia wraz ze swoimi współpracownikami poświęcił dużo czasu żeby znaleźć powoływane przez prawnika wyroki, okazało się że takich spraw nigdy nie było.
Prawnik przyznał się do wykorzystania Chat GPT do formułowania uzasadnienia swojego wniosku i przeklejenia wygenerowanej treści bez weryfikacji. Tłumaczył się niewystarczającą ilością czasu oraz problemami zdrowotnymi. Grożi mu oczywiście odpowiedzialność dycyplinarna.
To już kolejny przypadek, gdy prawnik zbytnio zaufał sztucznej inteligencji. Jak infomrował również The Guardian w lutym zeszłego roku kanadyjska prawniczka została przyłapana na podaniu w toku procesu sądowego fikcyjncyh spraw wygenerowanych przez Chat GPT. Wyroków nie mogli znaleźć prawnicy strony przeciwnej i zawiadomili sąd. Prawnicza przyznała się do błędu i wskazywała że nie miała swiadomosci, że sprawy mogą być zmyślone.
W czerwcu 2023 Reuters donosił o ukaraniu dwóch nowojorskich prawników, którzy przedłożyli sądowi swoje stanowisko powołując się na sześć fikcyjnych cytatów ze spraw wygenerowanych przez ChatGPT.
Kolejnym przykładem prawniczych kłopotów z Chat GPT jest sprawa nowojorskiej kancelarii Cuddy Law, która podczas postępowania sądowego przeciwko miejskiemu Wydziałowi Edukacji (DOE) w sprawie dotyczącej bezpłatnej edukacji publicznej użyła ChatGPT do uzasadnienia swoich opłat procesowych, co nie umknęło uwadze sędziego.