
z Niedobory zawodowe i etyczne Wydział
Jedną z uzasadnionej krytyki dużych modeli językowych, generatywnej sztucznej inteligencji i chatbotów jest to, że produkują Halucynacje –- Wyjście, które jest prawdopodobne, ale błędne. To problem we wszystkich domenach, ale prawdopodobnie jest to szczególnie poważne w dziedzinie prawa. Halucynowane cytaty podważają cały gmach Prawo zwyczajowektóry opiera się na precedensie, jak wyrażono w poprzednich decyzjach sądowych. To nie jest nowy problem: w maju 2023 r składający się cytaty. Nie jest też problemem. Niedawna sprawa dotyczyła prawnika reprezentującego firmę AI Anthropic, która użyła Nieprawidłowe cytowanie stworzone przez firmę Claude AI Chatbot W obecnej legalnej bitwie z wydawcami muzycznymi.
Podobne sprawy pojawiły się w Wielkiej Brytanii, a sędzia Sądu Najwyższego miał dość. W niedawnym orzeczeniu Victoria Sharp Sędzia Sądu Najwyższego bada dwie sprawy dotyczące halucynowanych cytatów, dokonuje ogólnych obserwacji na temat korzystania z sztucznej inteligencji przez prawników i ustala ich obowiązki, jeśli to zrobią.
Jedna sprawa dotyczyła wniosku z 45 cytatami, z których 18 nie istniało; W drugim cytowano pięć nieistniejących przypadków. . wyrok sądu [pdf] Podaje pełne szczegóły o tym, jak wyszły na jaw halucynacje i jak zaangażowani prawnicy zareagowali, gdy byli skonfrontowani z nieistniejącymi cytatami. Istnieje również dodatek z innymi przykładami legalnych halucynacji z całego świata: pięć z USA, czterech z Wielkiej Brytanii, trzy z Kanady i po jednym z Australii i Nowej Zelandii. Ale ważniejsze jest dyskusja sędziego na temat szerszych poruszonych punktów. Sharp zaczyna się od wskazania, że narzędzia AI z pewnością mogą być przydatne i prawdopodobnie stają się ważnym narzędziem dla zawodu prawnika:
Sztuczna inteligencja to potężna technologia. Może to być przydatne narzędzie w sporach sądowych, zarówno cywilnych, jak i przestępczych. Służy na przykład do zarządzania dużymi ćwiczeniami informacyjnymi w sądach biznesowych i nieruchomości. Niedawny raport o ujawnieniu w przypadku oszustw przed sądami karnymi zalecił utworzenie protokołu międzyagencyjnego obejmującego etyczne i odpowiednie wykorzystanie sztucznej inteligencji w analizie i ujawnianiu materiałów śledczych. Sztuczna inteligencja prawdopodobnie odgrywa dalszą i ważną rolę w prowadzeniu sporów w przyszłości.
Ale ten pozytywny pogląd wiąże się z ważnym zastrzeżeniem:
Jego użycie musi mieć miejsce wraz z odpowiednim stopniem nadzoru i w ramach regulacyjnych, które zapewniają zgodność z uznanymi standardami zawodowymi i etycznymi, jeśli ma zostać utrzymane zaufanie publiczne do wymiany sprawiedliwości.
Nie należy tego rozumieć jako niejasnego wezwania do lepszego robienia. Sharp chce zobaczyć działanie z brytyjskiego zawodu prawnika poza istniejącymi wskazówkami organów regulacyjnych (również omawianych przez nią):
Istnieją poważne konsekwencje dla administracji sprawiedliwości i zaufania publicznego do systemu wymiaru sprawiedliwości, jeśli sztuczna inteligencja jest niewłaściwie wykorzystywana. W tych okolicznościach należy teraz podjąć praktyczne i skuteczne środki w zawodzie prawniczym z indywidualnymi obowiązkami przywódczymi (takimi jak szefowie komnat [groups of barristers] oraz zarządzanie partnerami) oraz przez osoby odpowiedzialne za regulację świadczenia usług prawnych. Środki te muszą zapewnić, że każda osoba świadcząca obecnie usługi prawne w ramach tej jurysdykcji (za każdym razem, gdy do tego kwalifikowała się) rozumie i spełnia swoje obowiązki zawodowe i etyczne oraz obowiązki wobec sądu w przypadku sztucznej inteligencji.
A dla tych, którzy tego nie robią, sąd ma do dyspozycji szereg kary:
W przypadku, gdy te obowiązki nie są zgodne, uprawnienia sądu obejmują publiczne napomnienie prawnika, nałożenie nakazu kosztów, nałożenie nakazu zmarnowanego kosztów, wyrzucanie sprawy, skierowanie do regulatora, rozpoczęcie postępowania pogardy i skierowanie do policji.
W jednym z dwóch spraw omówionych przez sędziego w jej orzeczeniu nie została przekazana prawnikowi, który nie sprawdził cytatów, pomimo wystarczających podstaw. Sharp podała szereg powodów w swoim wyroku, w tym:
Naszym nadrzędnym problemem jest zapewnienie, aby prawnicy wyraźnie zrozumieli konsekwencje (jeśli nie wcześniej) wykorzystać sztuczną inteligencję do badań prawnych bez sprawdzania tych badań w odniesieniu do autorytatywnych źródeł. Decyzja tego sądu o nie inicjowaniu postępowania pogardy w odniesieniu do pani Forey [the lawyer in question] nie jest precedensem. Prawnicy, którzy nie przestrzegają swoich obowiązków zawodowych w tym zakresie, ryzykują poważne sankcje.
Prawdopodobnie przejmie kilka „surowych sankcji”, które zostaną wymienione na prawników, którzy używają halucynowanych precedensów bez ich sprawdzania, zanim zawód zacznie poważnie traktować ten problem. Ale orzeczenie Sharp jest wyraźnym wskazaniem, że chociaż sądy angielskie są bardzo szczęśliwi, że prawnicy używają sztucznej inteligencji w swojej pracy, nie tolerują błędów, jakie mogą wywołać takie systemy.
Śledź mnie @Glynmoody Mastodont i dalej Bluesy.
Złożone pod: aiW adwokatW kancelariaW ChatbotyW cytatyW ClaudeW Prawo zwyczajoweW pogardaW genyW sprawiedliwośćW spórW przeoczenieW regulacjaW sankcje
Firmy: antropiczny