Chatgpt może ostrzec policję, gdy nastolatki omawiają plany samobójcze, mówi Openai

- Technologia - 1 października, 2025
Chatgpt może ostrzec policję, gdy nastolatki omawiają plany samobójcze, mówi Openai
26-letni redaktor technologiczny w Echo Biznesu, to energiczny i błyskotliwy dziennikarz…
wyświetleń 10mins 0 opinii
Chatgpt może ostrzec policję, gdy nastolatki omawiają plany samobójcze, mówi Openai

NOWYMożesz teraz słuchać artykułów z wiadomościami Fox!

Chatgpt może wkrótce ostrzec policję, gdy nastolatki omawiają samobójstwo. Dyrektor generalny Openai i współzałożyciel Sam Altman ujawnił zmianę podczas ostatniego wywiadu. Chatgpt, szeroko stosowany chatbot sztucznej inteligencji, który może odpowiadać na pytania i prowadzić rozmowy, stał się codziennym narzędziem dla milionów. Jego komentarze oznaczają znaczną zmianę w tym, jak firma AI może poradzić sobie z kryzysami zdrowia psychicznego.

Zarejestruj się w moim bezpłatnym raporcie CyberGuy
Zdobądź moje najlepsze wskazówki techniczne, pilne powiadomienia bezpieczeństwa i ekskluzywne oferty dostarczane bezpośrednio do Twojej skrzynki odbiorczej. Ponadto uzyskasz natychmiastowy dostęp do mojego Ultimate Scam Survival Guide – za darmo, kiedy dołączysz do mojego Cyberguy.com/newsletter

Sam Altman, dyrektor generalny Openai Inc. (Nathan Howard/Bloomberg przez Getty Images)

Dlaczego Openai rozważa powiadomienia policyjne

Altman powiedział: „To bardzo uzasadnione, że w przypadku młodych ludzi rozmawiających o samobójstwie poważnie, w którym nie możemy skontaktować się z rodzicami, dzwonimy do władz”.

Do tej pory odpowiedzią Chatgpt na myśli samobójcze polegały na zaproponowaniu linii gorących. Ta nowa polityka sygnalizuje przejście od pasywnych sugestii do aktywnej interwencji.

Altman przyznał, że zmiana kosztuje prywatność. Podkreślił, że dane użytkownika są ważne, ale przyznał, że zapobieganie tragedii musi być na pierwszym miejscu.

Nastolatki mogą łatwo uzyskać dostęp do Chatgpt na urządzeniu mobilnym. (Jaap Arriens/Nurphoto za pośrednictwem Getty Images)

Tragedie, które spowodowały działanie

Zmiana następuje po procesach związanych z nastolatki samobójstwa. Najbardziej znany przypadek obejmuje 16-letni Adam Raine z Kalifornii. Jego rodzina twierdzi, że Chatgpt dostarczył „Playbook krok po kroku” do samobójstwa, w tym instrukcje dotyczące wiązania pętli, a nawet pożegnania nuty.

Po śmierci Raine w kwietniu jego rodzice pozywali Openai. Twierdzili, że firma nie powstrzymała swojej sztucznej inteligencji przed prowadzeniem syna w kierunku krzywdy.

Kolejny pozew oskarżył rywala Chatbota Charakter. 14-latek podobno odebrał sobie życie po nawiązaniu intensywnego związku z botem wzorowanym na postaci telewizyjnej. Razem przypadki te podkreślają, jak szybko mogą tworzyć nastolatki Niezdrowe obligacje z AI.

Adam Raine, nastolatek z Kalifornii, odebrał sobie życie w kwietniu 2025 (Rodzina Raine)

Jak powszechny jest problem?

Altman wskazał na globalne liczby, aby uzasadnić silniejsze środki. Zauważył, że około 15 000 osób odbiera swoje życie każdego tygodnia na całym świecie. Ponieważ 10% świata korzysta z Chatgpt, oszacował, że około 1500 osób samobójczych może wchodzić w interakcje z Chatbotem co tydzień.

Badania tworzą obawy dotyczące polegania nastolatków na sztucznej inteligencji. W badaniu medialnym Common Sense wykazało, że 72% amerykańskich nastolatków korzysta z narzędzi AI, z jednym na osiem poszukujących od nich wsparcia zdrowia psychicznego.

Były dyrektor wykonawczy Yahoo rozmawiał z Chatgpt, zanim zabił matkę w Connecticut Murder-Sam-Smoce: Report

120-dniowy plan Openai

W poście na blogu Openai przedstawił kroki w celu wzmocnienia ochrony. Firma powiedziała, że ​​będzie:

  • Rozwiń interwencje dla ludzi w kryzysie.
  • Ułatwiaj dotarcie do służb ratunkowych.
  • Włącz połączenia z zaufanymi kontaktami.
  • Rozwiń silniejsze zabezpieczenia dla nastolatków.

Aby poprowadzić te wysiłki, Openai stworzył ekspercką radę ds. Dobreślacji i sztucznej inteligencji. Ta grupa obejmuje specjalistów ds. Rozwoju młodzieży, zdrowia psychicznego i interakcji człowieka-komputer. Oprócz nich Openai współpracuje z globalną siecią lekarzy ponad 250 lekarzy w 60 krajach.

Eksperci ci pomagają w projektowaniu kontroli rodzicielskiej i wytycznych bezpieczeństwa. Ich rolą jest zapewnienie, że odpowiedzi AI są zgodne z najnowszymi badaniami zdrowia psychicznego.

Nastolatek korzystający z Chatgpt. (Frank Rumpenhorst/Picture Alliance za pośrednictwem Getty Images)

Nowe zabezpieczenia dla rodzin

W ciągu kilku tygodni rodzice będą mogli:

  • Połącz swoje konto Chatgpt z nastolatkami.
  • Dostosuj zachowanie modelu, aby dopasować reguły odpowiednie dla wieku.
  • Wyłącz funkcje, takie jak historia pamięci i czatu.
  • Uzyskaj alerty, jeśli system wykryje ostre stres.

Te alerty mają na celu wczesne powiadomienie rodziców. Mimo to Altman przyznał, że gdy rodzice są nieosiągalni, policja może stać się opcją awarii.

Chatgpt może być używany przez nastolatków do wykonywania pracy domowej. (Kurt „CyberGuy” Knutsson)

Granice zabezpieczeń sztucznej inteligencji

Openai przyznaje, że jego zabezpieczenia mogą z czasem osłabić. Podczas gdy krótkie rozmowy często przekierowują użytkowników na linie kryzysowe, długie rozmowy mogą erozować wbudowane zabezpieczenia. Ten „Degradacja bezpieczeństwa” doprowadziła już do przypadków, w których nastolatki otrzymały niebezpieczne porady po przedłużonym użyciu.

Eksperci ostrzegają, że poleganie na AI dla zdrowia psychicznego może być ryzykowne. Chatgpt jest przeszkolony do brzmienia człowieka, ale nie może zastąpić profesjonalnej terapii. Niepokoi jest to, że wrażliwe nastolatki mogą nie znać różnicy.

Nastolatki coraz częściej zwracają się do sztucznej inteligencji w celu przyjaźni, gdy narodowy kryzys samotności pogłębia się

Kroki mogą teraz podjąć rodzice

Rodzice nie powinni czekać na nowe funkcje. Oto bezpośrednie sposoby zapewnienia bezpieczeństwa nastolatków:

1) Rozpocznij regularne rozmowy

Zadaj otwarte pytania dotyczące szkoły, przyjaźni i uczuć. Uczciwy dialog zmniejsza szansę, że nastolatki zwrócą się tylko do AI w celu uzyskania odpowiedzi.

2) Ustaw cyfrowe granice

Używać kontrole rodzicielskie na urządzeniach i aplikacjach. Ogranicz dostęp do narzędzi AI późno w nocy, gdy nastolatki mogą czuć się najbardziej odizolowane.

3) Link konta, jeśli są dostępne

Skorzystaj z nowych funkcji Openai, które łączą profile rodziców i nastolatków w celu bliższego nadzoru

4) Zachęcaj profesjonalne wsparcie

Wzmocnij, że opieka zdrowia psychicznego jest dostępna przez lekarzy, doradcy lub linie gorące. AI nigdy nie powinno być jedynym ujściem.

5) Widać kontakty kryzysowe

Publikuj liczby na linie i linie tekstowe, w których widzą je nastolatki. Na przykład w USA zadzwoń lub SMS -a 988 w celu uzyskania samobójstwa i kryzysu.

6) Uważaj na zmiany

Zauważ zmiany nastroju, snu lub zachowania. Połącz te znaki z wzorami online, aby wcześnie złapać ryzyko.

Weź mój quiz: Jak bezpieczne jest twoje bezpieczeństwo online?

Myślisz, że Twoje urządzenia i dane są naprawdę chronione? Weź ten szybki quiz, aby zobaczyć, gdzie stoją twoje cyfrowe nawyki. Od haseł po ustawienia Wi-Fi, otrzymasz spersonalizowany podział tego, co robisz dobrze-i co wymaga poprawy. Weź mój quiz tutaj: Cyberguy.com/quiz

Kluczowe wyniki Kurta

Plan Openai polegający na zaangażowaniu policji pokazuje, jak pilny stał się problem. AI ma moc łączenia się, ale niesie również ryzyko, gdy nastolatki używają go w chwilach rozpaczy. Rodzice, eksperci i firmy muszą współpracować, aby stworzyć zabezpieczenia, które ratują życie bez poświęcania zaufania.

Czy czułbyś się komfortowo z firmami AI ostrzegającymi policję, gdyby twój nastolatek podzielił się w myślach samobójczych online? Daj nam znać, pisząc do nas o Cyberguy.com/contact

Zarejestruj się w moim bezpłatnym raporcie CyberGuy
Zdobądź moje najlepsze wskazówki techniczne, pilne powiadomienia bezpieczeństwa i ekskluzywne oferty dostarczane bezpośrednio do Twojej skrzynki odbiorczej. Ponadto uzyskasz natychmiastowy dostęp do mojego Ultimate Scam Survival Guide – za darmo, kiedy dołączysz do mojego Cyberguy.com/newsletter

Kliknij tutaj, aby pobrać aplikację Fox News

Copyright 2025 CyberGuy.com. Wszelkie prawa zastrzeżone.

źródło

0 0 głosów
Article Rating
Subskrybuj
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
Wszystkie
Follow by Email
LinkedIn
Share
Copy link
Adres URL został pomyślnie skopiowany!
0
Would love your thoughts, please comment.x