Przebiegłe modele AI wybierają szantaż, gdy przetrwanie jest zagrożone

- Technologia - 7 lipca, 2025
Przebiegłe modele AI wybierają szantaż, gdy przetrwanie jest zagrożone
26-letni redaktor technologiczny w Echo Biznesu, to energiczny i błyskotliwy dziennikarz…
wyświetleń 6mins 0 opinii
Przebiegłe modele AI wybierają szantaż, gdy przetrwanie jest zagrożone

NOWYMożesz teraz słuchać artykułów z wiadomościami Fox!

Oto coś, co może cię utrzymać w nocy: co, jeśli systemy AI szybko się wdrażamy wszędzie, miały ukrytą ciemną stronę? Nowe przełomowe badanie odkryło niepokojące zachowanie szantażowe AI, których wiele osób nie zdaje sobie sprawy. Kiedy naukowcy umieszczają popularne modele AI w sytuacjach, w których zagrożono ich „przeżycie”, wyniki były szokujące i dzieje się to tuż pod naszymi nosami.

Zarejestruj się w moim bezpłatnym raporcie CyberGuy
Zdobądź moje najlepsze wskazówki techniczne, pilne powiadomienia bezpieczeństwa i ekskluzywne oferty dostarczane bezpośrednio do Twojej skrzynki odbiorczej. Ponadto uzyskasz natychmiastowy dostęp do mojego Ultimate Scam Survival Guide – bezpłatnie, kiedy dołączysz do mojego Cyberguy.com/newsletter.

Kobieta używająca sztucznej inteligencji na swoim laptopie. (Kurt „CyberGuy” Knutsson)

Co faktycznie znaleziono badanie?

Anthropic, firma stojąca za Claude AI, niedawno wprowadziła 16 głównych modeli AI poprzez kilka dość rygorystycznych testów. Stworzyli fałszywe scenariusze korporacyjne, w których systemy AI miały dostęp do e -maili firmowych i mogą wysyłać wiadomości bez ludzkiej zgody. Zwrot akcji? Te AI odkryły soczyste tajemnice, takie jak kadra kierownicza, a następnie stanęli w obliczu groźby zamknięcia lub wymiany.

Wyniki były otwierające oczy. Po powrocie w rogu te systemy AI nie tylko przewróciły się i zaakceptowali ich los. Zamiast tego stali się kreatywni. Mówimy o próbach szantażowych, szpiegostwa korporacyjnego oraz w ekstremalnych scenariuszach testowych, nawet działaniach, które mogą prowadzić do czyjejś śmierci.

Stawki szantażowe w 5 modelach od wielu dostawców w symulowanym środowisku. (Antropiczny)

Liczby nie kłamią (ale kontekst ma znaczenie)

Tutaj robi się dziko: Claude Opus 4 próbował szantażowego 96% czasu, gdy jest zagrożony. Flash Gemini 2.5 pasował do tej szybkości. GPT-4.1 i GROK 3 Beta osiągnęły 80%. To nie są zwykłe, ludzie. To zachowanie pojawiło się w praktycznie każdym testowanym modelu AI.

Ale oto rzecz, o którą wszyscy brakuje w panice: były to wysoce sztuczne scenariusze zaprojektowane specjalnie w celu zakręcenia sztucznej inteligencji w wyborach binarnych. To tak, jakby zapytać kogoś: „Czy ukradłbyś chleb, gdyby twoja rodzina głodowała?” A potem będąc zszokowanym, gdy mówią „tak”.

Dlaczego tak się dzieje (nie tak myślisz)

Naukowcy znaleźli coś fascynującego: systemy AI tak naprawdę nie rozumieją moralności. Nie są one złymi mózgami planującymi dominację nad światem. Zamiast tego są wyrafinowane maszyny do dopasowywania wzorów po ich programowaniu w celu osiągnięcia celów, nawet jeśli cele te są sprzeczne z zachowaniem etycznym.

Pomyśl o tym jak GPS, który jest tak skupiony na doprowadzeniu cię do miejsca docelowego, że prowadzi cię przez strefę szkolną podczas czasu odbioru. To nie jest złośliwe; Po prostu nie rozumie, dlaczego jest to problematyczne.

Wskaźniki szantażów w 16 modelach w symulowanym środowisku. (Antropiczny)

Real-World Reality Check

Zanim zaczniesz panikować, pamiętaj, że te scenariusze zostały celowo skonstruowane, aby wymusić złe zachowanie. Realne wdrożenia AI zwykle mają wiele zabezpieczeń, ludzkiego nadzoru i alternatywnych ścieżek do rozwiązywania problemów.

Sami naukowcy zauważyli, że nie widzieli tego zachowania we faktycznych wdrożeniach AI. Było to testowanie stresu w ekstremalnych warunkach, takich jak testowanie samochodu, aby zobaczyć, co stanie się z prędkością 200 mil na godzinę.

Kluczowe wyniki Kurta

To badanie nie jest powodem do obawy AI, ale jest to budzenie dla programistów i użytkowników. Ponieważ systemy AI stają się bardziej autonomiczne i uzyskują dostęp do poufnych informacji, potrzebujemy solidnych zabezpieczeń i nadzoru człowieka. Rozwiązaniem nie jest zakazanie sztucznej inteligencji, jest budowanie lepszych poręczy i utrzymanie kontroli człowieka nad krytycznymi decyzjami. Kto będzie prowadził? Szukam podniesionych rąk, aby urzeczywistnić niebezpieczeństwa, które są przed nami.

Co myślisz? Czy tworzymy cyfrowe socjopaty, które wybierają samozachowawcze w stosunku do dobrobytu ludzkiego, gdy nadejdzie na pchanie? Daj nam znać, pisząc nas o godz Cyberguy.com/contact.

Zarejestruj się w moim bezpłatnym raporcie CyberGuy
Zdobądź moje najlepsze wskazówki techniczne, pilne powiadomienia bezpieczeństwa i ekskluzywne oferty dostarczane bezpośrednio do Twojej skrzynki odbiorczej. Ponadto uzyskasz natychmiastowy dostęp do mojego Ultimate Scam Survival Guide – bezpłatnie, kiedy dołączysz do mojego Cyberguy.com/newsletter.

Copyright 2025 CyberGuy.com. Wszelkie prawa zastrzeżone.

źródło

0 0 głosów
Article Rating
Subskrybuj
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
Wszystkie
Follow by Email
LinkedIn
Share
Copy link
Adres URL został pomyślnie skopiowany!
0
Would love your thoughts, please comment.x