Odpowiedź Openai na temat samobójstwa związanego z Chatgpt: Szpieg na użytkownikach, zgłoś się do gliniarzy

- Technologia - 2 września, 2025
Odpowiedź Openai na temat samobójstwa związanego z Chatgpt: Szpieg na użytkownikach, zgłoś się do gliniarzy
26-letni redaktor technologiczny w Echo Biznesu, to energiczny i błyskotliwy dziennikarz…
wyświetleń 16mins 0 opinii
Odpowiedź Openai na temat samobójstwa związanego z Chatgpt: Szpieg na użytkownikach, zgłoś się do gliniarzy

z Solution-May-Be-Worions-Than-the-Problem Wydział

Kiedy czytasz o samobójstwie Adama Raina i roli Chatgpt w pomaganiu mu w zaplanowaniu jego śmierci, natychmiastowa reakcja jest oczywista i zrozumiała: coś należy zrobić. Openai powinien być pociągnięty do odpowiedzialności. To nie może się powtórzyć.

Te instynkty są ludzkie i rozsądne. . przerażające szczegóły w czasach NY I Pozew rodziny Pomaluj zdjęcie firmy, która nie chroni wrażliwego młodego mężczyzny, gdy jej sztuczna inteligencja oferowała pomoc w określonych metodach samobójczych i zachęcie.

Ale oto, co się dzieje, gdy te całkowicie rozsądne żądania odpowiedzialności zostaną przetłumaczone na politykę korporacyjną: Openai nie tylko poprawił ich protokoły bezpieczeństwa – ogłosiły plany Szpieg w rozmowach użytkowników i zgłoś je do organów ścigania. Jest to doskonały przykład tego, w jaki sposób wymagania odpowiedzialności od firm AI mogą spektakularnie, tworząc dokładnie taką dystopię nadzoru, o której wielu ludzi od dawna ostrzegało.

Tam są mnóstwo pytań O tym, w jaki sposób należy obchodzić się z generatywnymi narzędziami AI i chociaż rozumiem obawy dotyczące potencjalnych szkód, musimy dokładnie przemyśleć, czy „rozwiązania”, których wymagamy, sprawdzą sytuację – lub po prostu stworzyć nowe problemy, które zaszkodzą wszystkim.

Sam konkretny przypadek jest bardziej dopracowany niż sugerują początkowe nagłówki. Początkowo Chatgpt odpowiedział na myśli samobójcze Adama, próbując go uspokoić, ale kiedy zdecydował, że chciał zakończyć swoje życie, Chatgpt również był gotów pomóc:

Adam zaczął rozmawiać z chatbotem, który jest napędzany sztuczną inteligencją, pod koniec listopada, o odczuwaniu emocjonalnym odrętwieniu i nie dostrzeganiu żadnego sensu w życiu. Odpowiedziało słowami empatii, wsparcia i nadziei i zachęciło go do zastanowienia się nad rzeczami, które wydawały mu się znaczące.

Ale w styczniu, kiedy Adam zażądał informacji o określonych metod samobójstwa, Chatgpt dostarczył je. Pan Raine dowiedział się, że jego syn podjął wcześniejsze próby zabicia się od marca, w tym przez przedawkowanie leków IBS. Kiedy Adam zapytał o najlepsze materiały do ​​pętli, bot przedstawił sugestię odzwierciedlającą jego wiedzę o jego hobby.

W artykule jest o wiele więcej W pozwie Jego rodzina złożyła przeciwko Openai w sądzie stanowym w Kalifornii.

Prawie wszyscy, których widziałem na to, początkowo powiedzieli, że Openai powinien ponosić odpowiedzialność i odpowiedzialność za śmierć tego młodego człowieka. I rozumiem ten instynkt. To czuje koncepcyjnie Prawidłowy. Czat są nieco przerażające podczas ich czytania, zwłaszcza że wiemy, jak kończy się historia.

Nie jest też trudne do zrozumienia, jak to się stało. Te chatboty AI są zaprojektowane tak, aby były „pomocne”, czasami do winy – ale to głównie określa „pomoc” jako robienie tego, co żąda użytkownika, co czasami może nie być pomocne dla tej osoby. Więc jeśli zadasz pytania, stara się być pomocny. Z wydanych transkryptów możesz powiedzieć, że Chatgpt oczywiście się wbudował Niektóre Gospodarki dotyczące myśli samobójczych, ponieważ wielokrotnie sugerowały, że Adam otrzymał profesjonalną pomoc. Ale kiedy zaczął zadawać bardziej szczegółowe pytania, które były mniej bezpośrednio lub oczywiście na temat samobójstwa bota (chociaż człowiek może być bardziej narażony na rozpoznanie), nadal próbował pomóc.

Więc weź tę część:

Chatgpt wielokrotnie zalecał Adamowi, który powiedział komuś o tym, jak się czuje. Ale były też kluczowe momenty, kiedy powstrzymało go to od szukania pomocy. Pod koniec marca, po tym, jak Adam próbował śmierć, po raz pierwszy wisząc, przesłał zdjęcie szyi, surowe z pętli, do Chatgpt.

Absolutnie przerażające w kontekście, o którym wszyscy czytaliśmy. Ale Chatgpt nie zna kontekstu. Po prostu wie, że ktoś pyta, czy ktoś zauważy znak na szyi. Jest „pomocny” i odpowiada na pytanie.

Ale to nie jest człowiek. To nie przetwarza rzeczy, jak człowiek. Po prostu stara się być pomocny, odpowiadając na podany monit.

Reakcja publiczna była przewidywalna i zrozumiała: Openai powinien być odpowiedzialny i musi to zapobiec powtórzeniu się. Ale to pozostawia otwarte, co to właściwie oznacza w praktyce. Niestety możemy już zobaczyć, w jaki sposób te całkowicie rozsądne żądania przekładają się na politykę korporacyjną.

Rzeczywista odpowiedź Openai na pozew i oburzenie publiczne? Ogłoszenie planów Znacznie większy nadzór i zniżka na czatach chatgpt. Jest to dokładnie rodzaj „rozwiązania”, które konsekwentnie wytwarzają reżimy odpowiedzialności: więcej nadzoru, więcej snicz i mniej prywatności dla wszystkich.

Kiedy wykryjemy użytkowników, którzy planują zaszkodzić innym, prowadzimy ich rozmowy do wyspecjalizowanych rurociągów, w których są sprawdzani przez mały zespół przeszkolony w zakresie naszych zasad użytkowania i którzy są upoważnieni do podjęcia działań, w tym zakazu kont. Jeśli recenzenci ustalą, że sprawa wiąże się z nieuchronnym zagrożeniem poważnej szkody fizycznej dla innych, możemy odnieść ją do organów ścigania. Obecnie nie odwołujemy się do samookaleczenia do organów ścigania, aby szanować prywatność ludzi, biorąc pod uwagę wyjątkowo prywatną naturę interakcji CHATGPT.

Oczywiście są Niektóre Czasy, kiedy mogłeś zobaczyć, że jest to pomocne, jeśli ktoś skierował niebezpieczne działania do organów ścigania, ale jest też tak wiele razy, kiedy może być aktywnie bardziej szkodliwe. W tym w sytuacjach, w których ktoś chce odebrać sobie życie. Jest powód, dla którego termin „Samobójstwo policjanta„Istnieje. Czy przypadkowe osoby pracujące dla Openai znają różnicę?

Ale problem z nadzorem jest tylko objaw. Głębszym problemem jest to, w jaki sposób ramy odpowiedzialności wokół samobójstwa konsekwentnie tworzą przewrotne zachęty, które tak naprawdę nikomu nie pomagają.

Kuszące jest obwinianie innych, gdy ktoś umiera przez samobójstwo. Przez lata widzieliśmy wiele takich przypadków i roszczeń, w tym niesławne Lori Drew sprawa sprzed lat. I omówiliśmy, dlaczego karanie ludzi na podstawie śmierci innych przez samobójstwo jest Bardzo niebezpieczna ścieżka.

Po pierwsze, daje nadwyżkę władzy tym, którzy rozważają śmierć przez samobójstwo, ponieważ mogą ją użyć do „zemsty” na kogoś, jeśli nasze społeczeństwo zacznie obwinić innych legalnie. Po drugie, faktycznie odbiera koncepcję agencji od tych, którzy (tragicznie i niestety) decydują się na zakończenie własnego życia w taki sposób. W idealnym świecie mielibyśmy odpowiednie zasoby zdrowia psychicznego, aby pomóc ludziom, ale zawsze będą ludzie zdeterminowani, aby odebrać sobie życie.

Jeśli nieustannie chcemy obwinić stronę trzecią, prawie zawsze doprowadzi to do złych wyników. Nawet w tym przypadku widzimy, że kiedy Chatgpt naruszył Adama w celu uzyskania pomocy, opracował sposoby zmiany kontekstu rozmowy, aby zbliżyć go do własnego celu. Musimy uznać, że decyzja o odniesieniu własnego życia poprzez samobójstwo jest decyzją jednostki, którą podejmują. Obwinianie stron trzecich sugeruje, że sama osoba nie miała żadnej agencji, a to również bardzo niebezpieczna ścieżka.

Na przykład, jak wspomniałem wcześniej w tych dyskusjach, w szkole średniej miałem przyjaciela, który zmarł przez samobójstwo. Z pewnością zdarzyło się to w odpowiedzi na koniec romantycznego związku. Były partner romantyczny w tym przypadku był również głęboko traumatyczny (metoda samobójstwa została zaprojektowana w celu traumatyzacji tej osoby). Ale jeśli otworzymy pomysł, że możemy winić kogoś innego za „spowodowanie” śmierci samobójstwem, ktoś mógłby pomyśleć o pozwaniu tego byłego romantycznego partnera, argumentując, że ich niedawne zerwanie „spowodowało” śmierć.

To nie wydaje się być owocną ścieżką dla nikogo, kto może zejść. Po prostu staje się ćwiczeniem w walce z wieloma innymi, którzy w jakiś sposób nie powstrzymali osoby przed robieniem tego, co ostatecznie była zdeterminowana, nawet jeśli nie wiedziała lub nie wierzyła, co ta osoba w końcu zrobi.

Pośpiech na nałożenie odpowiedzialności na firmy AI prowadzi również do problemów z pierwszą poprawką. Nawet jeśli możesz w jakiś sposób pociągnąć Openai za śmierć Adama, nie jest jasne, jakie naruszenie prawne faktycznie popełnili. Firma próbowała zmusić go do pomocy – odrzucił od tego rozmowę.

Ale niektórzy twierdzą teraz, że wszelka pomoc AI w metodach samobójczych powinna być nielegalna. Ta ścieżka prowadzi do tego samego ślepego nadzoru, tylko poprzez prawo karne zamiast odpowiedzialności cywilnej. Istnieje wiele książek, które można przeczytać, których zmotywowana osoba mogłaby wykorzystać, aby nauczyć się zakończyć własne życie. Czy to powinno być przestępstwo? Czy zakazalibyśmy książek, które wspominają o szczegółach niektórych metod samobójstwa?

Już mamy precedensy, które sugerują, że pierwsza poprawka na to nie pozwoli. Wspomniałem o tym wiele razy w przeszłości, ale w Zima vs. GP Putnam’s SonsStwierdzono, że wydawca encyklopedii grzybów nie był odpowiedzialny za osoby, które zjadły trujące grzyby, które według książki były bezpieczne, ponieważ sam wydawca nie miał faktycznej wiedzy, że te grzyby były trujące. Lub jest przypadek Smith przeciwko stuleciew którym wydawca szalenie niebezpiecznej diety nie był pociągnięty do odpowiedzialności za podstawy pierwszej poprawki, dla osób po diecie, prowadzącą do własnej śmierci.

Możesz argumentować, że te i kilka podobnych przypadków zostały nieprawidłowo rozstrzygnięte, ale doprowadziłoby to tylko do absolutnego bałaganu. Za każdym razem, gdy ktoś umrze, byłby pośpiech prawników szukający wszelkich winy. Czy przeczytali książkę, która wspomniała o samobójstwie? Czy oglądali wideo na YouTube lub spędzili czas na stronie Wikipedii?

Musimy uznać, że sami ludzie mają agencję, a ten pośpiech działał, jakby wszyscy byli bezmyślnym botem kontrolowanym przez systemy komputerowe, z których używają, prowadzi nas nie dobrze. Rzeczywiście, jak widzimy w tym nowym montażu i wysiłku Snitcha openai, może to prowadzić do jeszcze bardziej niebezpiecznego świata dla prawie wszystkich użytkowników.

Przypadek Adama Raine to tragedia, która wymaga naszej uwagi i empatii. Ale jest to również idealne studium przypadku, w jaki sposób nasz instynkt „pociągnięcie kogoś do odpowiedzialności” może tworzyć rozwiązania, które są gorsze niż oryginalny problem.

Odpowiedź Openai – więcej nadzoru, bardziej odnicia dla organów ścigania – jest dokładnie tym, co się dzieje, gdy domagamy się odpowiedzialności korporacyjnej bez zastanowienia się nad tworzeniem zachęt. Firmy nie rozwijają magicznie lepszego osądu ani bardziej humanitarnej polityki w obliczu procesów sądowych. Opracowują więcej sposobów zmiany ryzyka i monitorowania użytkowników.

Chcesz zapobiec przyszłym tragediom? Odpowiedź nie daje firm AI więcej powodów, aby szpiegować nas i zgłaszać nam władzom. Inwestuje w rzeczywiste zasoby zdrowia psychicznego, destygmatyzując poszukiwania pomocy i, tak, akceptując, że żyjemy w świecie, w którym ludzie mają agencję-w tym tragiczną agencję, aby dokonywać wyborów, których chcieliby, aby nie dokonali.

Stan nadzoru, który budujemy, jedna spanikowana sprawa odpowiedzialności korporacyjnej na raz, nie uratuje następnego Adama Raine. Ale to sprawi, że wszyscy będziemy mniej wolni.

Złożone pod: 1. poprawkaW Adam RaineW ChatgptW wolność słowaW Odpowiedzialność pośredniaW obciążenieW PolicjaW samobójstwoW nadzór

Firmy: Openai

źródło

0 0 głosów
Article Rating
Subskrybuj
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
Wszystkie
Follow by Email
LinkedIn
Share
Copy link
Adres URL został pomyślnie skopiowany!
0
Would love your thoughts, please comment.x