
NOWYMożesz teraz słuchać artykułów Fox News!
Jeśli kiedykolwiek zastanawiałeś się, w jaki sposób platformy radzą sobie z milionami użytkowników jednocześnie, tutaj wszystko staje się rzeczywistością. Roblox ma ponad 144 miliony użytkowników dziennie. Taka skala stwarza ogromne wyzwanie. Szkodliwe treści nie zawsze ujawniają się w oczywisty sposób. Czasami przyczyną problemu jest kombinacja kilku czynników. Teraz firma wdraża nowy system zaprojektowany, aby dokładnie to wychwycić. Ale najpierw pomaga zrozumieć czym właściwie jest Roblox.
Zarejestruj się, aby otrzymać mój DARMOWY raport CyberGuy
Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie — bezpłatnie, jeśli dołączysz do mojego CYBERGUY.COM biuletyn
Roblox wprowadza nowy system sztucznej inteligencji, który analizuje całe sceny w czasie rzeczywistym w celu wykrycia szkodliwych treści na swojej platformie. (Brent Lewin/Bloomberg za pośrednictwem Getty Images)
Co to jest Roblox
Roblox to platforma internetowa, na której ludzie mogą tworzyć, udostępniać i grać w gry stworzone przez innych użytkowników. Zamiast być pojedynczą grą, jest to ogromny ekosystem doświadczeń generowanych przez użytkowników, od prostych torów przeszkód po złożone wirtualne światy.
Tym, co wyróżnia Roblox, jest to, jak dużą kontrolę mają użytkownicy. Gracze nie tylko konsumują zawartość. Stale tworzą go w czasie rzeczywistym za pomocą awatarów, tekstów i środowisk interaktywnych. Właśnie to ciągłe tworzenie sprawia, że umiar staje się bardziej złożony.
Inteligentniejszy sposób na wykrywanie szkodliwych treści
Większość narzędzi do moderacji sprawdza jedną rzecz na raz. Wiadomość. Obraz. Awatar. Takie podejście może nie uwzględniać szerszego obrazu. Rozmawiając wyłącznie z CyberGuyem, Matt Kaufman, dyrektor ds. bezpieczeństwa Roblox, jasno wyjaśnił tę zmianę:
„Moderujemy już wszystkie obiekty w wirtualnym świecie, ale sposób ich łączenia i interakcji od dawna stanowi wyzwanie. Nasz nowy wielomodalny system moderacji w czasie rzeczywistym przygląda się jednocześnie całej scenie z punktu widzenia użytkownika – w tym obiektom 3D, awatarom i tekstowi – przechwytując wszystkie te elementy w określonym momencie, aby ocenić, czy kombinacja typów treści łamie nasze zasady”.
To się nazywa moderacja multimodalna. Zamiast analizować pojedyncze elementy, analizuje wszystko razem w czasie rzeczywistym.
Dlaczego w starszych systemach nie występował problem
Oto problem, z którym platformy borykają się od lat. Coś samo w sobie może wyglądać nieszkodliwie. Ale w połączeniu z innymi elementami może stać się szkodliwy lub naruszać zasady.
Kaufman ujmuje to w ten sposób: „Tradycyjne systemy moderacji AI, które moderują jeden obiekt na raz, mogą brakować kontekstu i pomijać kombinacje, które mogą być problematyczne w inny sposób niż poszczególne elementy. Model ten rozumie relacje między różnymi obiektami i sposób, w jaki łączą się one, aby wychwycić szczegółowe naruszenia, które mogą zostać przeoczone przez standardowe filtry”.
Ten brakujący kontekst jest dokładnie tym, co wykorzystują źli aktorzy.
Co tak naprawdę wyłapuje ta nowa sztuczna inteligencja
System ten skupia się na scenariuszach, które wcześniej przemknęły. Pomyśl o grach, w których użytkownicy mogą swobodnie rysować lub dostosowywać awatary. Sam rysunek może wydawać się w porządku. Sam awatar może wydawać się w porządku. Ale razem mogliby stworzyć coś niestosownego.
Kaufman wyjaśnia, jak system sobie z tym radzi: „System może wykryć kombinacje obiektów, które mogą naruszać standardy naszej społeczności. Na przykład niektóre gry umożliwiają swobodne rysowanie. Ten wielomodalny system moderacji w czasie rzeczywistym sprawdza rysunek, awatar i ustawienia 3D razem i ocenia je całościowo, aby wychwycić i zamknąć serwery zawierające treści naruszające zasady”.
W tej chwili wdrożenie jest już ukierunkowane na problematyczne awatary i nieodpowiednie rysunki.
Przedstawiciele Roblox twierdzą, że nowy system ma na celu proaktywną ochronę dzieci, przy jednoczesnym zapewnieniu rozgrywki dla zgodnych użytkowników. (Riccardo Milani/Hans Lucas/AFP za pośrednictwem Getty Images)
Skala jest większa niż myślisz
To nie jest mała poprawka. Działa na masową skalę. Roblox twierdzi, że już zamyka około 5000 serwerów dziennie z powodu naruszeń.
Kaufman twierdzi, że odzwierciedla to rzeczywistość platformy: „Przy 144 milionach użytkowników, którzy każdego dnia łączą się i tworzą w Robloxie, nasze systemy bezpieczeństwa muszą być równie sprawne i dynamiczne, jak sami nasi twórcy”.
Dodaje także ważną ocenę rzeczywistości: „Żaden system nie jest niezawodny w przypadku złych aktorów, dlatego dokładamy wszelkich starań, aby wyprzedzić tych, którzy próbują ominąć protokoły bezpieczeństwa, i pracujemy nad skalowaniem tego nowego systemu multimodalnego, aby przechwytywał i monitorował 100% czasu gry”.
Jakie zmiany dla codziennych użytkowników Roblox
Jeśli Ty lub Twoje dzieci korzystacie z Robloxa, ten system prawdopodobnie będzie działał w tle, a Ty tego nie zauważysz. Zmienia się jednak to, jak szybko szkodliwe zachowanie zostaje powstrzymane.
„Kiedy w pojedynczej grze powtarza się problematyczne zachowanie, ten nowy system automatycznie wykrywa i zamyka określone serwery w czasie rzeczywistym, co znacznie zmniejsza liczbę użytkowników, którzy mogą być narażeni na takie zachowanie”.
Ta ostatnia część ma znaczenie. Zamiast zamykać całą grę, skupia się tylko na problemie.
„Koncentrując się tylko na serwerze naruszającym zasady, a nie na całym serwisie, możemy zapobiec dotarciu naruszeń do większej liczby użytkowników, jednocześnie pozwalając graczom mającym dobre intencje na niezakłócone kontynuowanie sesji”.
Co to oznacza dla rodziców
Dla rodziców jest to duża zmiana w kierunku bezpieczeństwo proaktywne. Zamiast czekać na raporty, system działa w czasie rzeczywistym.
Kaufman wyjaśnia: „Chcemy, aby rodzice wiedzieli, że nie tylko reagujemy na zgłoszenia — aktywnie budujemy jedne z najbardziej wyrafinowanych systemów moderacji opartych na sztucznej inteligencji na świecie, aby chronić ich dzieci w czasie rzeczywistym”.
Istnieje również ważny poziom ochrony podczas rozgrywki: „Możemy teraz ocenić w czasie rzeczywistym kombinację problematycznego tekstu, rysunków 3D lub ruchów awatara i natychmiast zamknąć konkretny serwer – często zanim dziecko go spotka”.
Roblox podkreśla jednak, że sama technologia nie wystarczy. „Żaden system nie jest doskonały, dlatego zachęcamy rodziców, aby rozmawiali ze swoimi dziećmi na temat bezpieczeństwa w Internecie”.
Sposoby, w jakie rodzice mogą pomóc zapewnić dzieciom bezpieczeństwo
Nawet przy zaawansowanej moderacji AI kilka prostych kroków może pomóc Ci pozostać o krok przed innymi Zadbaj o bezpieczeństwo swojego dziecka w Internecie.
1) Porozmawiaj o tym, co Twoje dziecko robi w Internecie
Zapytaj, w jakie gry grają i z kim wchodzą w interakcję, aby pozostać zaangażowanym.
2) Zachęcaj do zgłaszania wszelkich nieprzyjemnych zachowań
Przypomnij dziecku, aby zgłaszało zachowanie, które wydaje się niewłaściwe lub niewygodne.
3) Sprawdź wspólnie ustawienia prywatności i bezpieczeństwa
Przejrzyj ustawienia konta, aby ograniczyć liczbę osób, które mogą rozmawiać na czacie lub wchodzić w interakcje z Twoim dzieckiem.
4) Wyznacz jasne granice rozgrywki
Uzgodnij zasady dotyczące czasu ekranowego i dozwolone rodzaje doświadczeń.
Roblox ma na celu zniuansowane łamanie zasad, analizując awatary, tekst i środowiska razem, a nie w izolacji. (JasonDoiy/Getty Images)
Jak Roblox unika fałszywych alarmów
Jedna obawa w przypadku każdego System sztucznej inteligencji źle to rozumie. Roblox twierdzi, że aktywnie pracuje nad poprawą dokładności w miarę upływu czasu.
„Mamy skonfigurowaną pętlę ciągłej oceny do pomiaru fałszywych alarmów z multimodalnego systemu moderacji i szkolimy system na podstawie tych informacji, aby pomóc mu wychwytywać tego typu przykłady w przyszłości”.
Opinie użytkowników również odgrywają rolę. „Nasi twórcy i użytkownicy często dostrzegają pojawiające się nowe trendy… Ten rodzaj raportowania jest dla użytkowników najskuteczniejszym sposobem ochrony społeczności”.
Sztuczna inteligencja i nadzór człowieka nadal mają znaczenie
Nawet w przypadku automatyzacji w dalszym ciągu zaangażowany jest człowiek. „Korzystamy już z połączenia sztucznej inteligencji i zespołu ekspertów ds. bezpieczeństwa, aby przeglądać treści przesyłane na platformę, zanim zostaną one kiedykolwiek pokazane użytkownikom”.
Nowy system dodaje kolejną warstwę, a nie zamiennik. „Ten multimodalny system moderacji działający w czasie rzeczywistym stanowi dodatkową warstwę i jest w pełni zautomatyzowany w ocenie całej sceny”.
A co z prywatnością i uczciwością?
Każdy system tak potężny rodzi pytania prywatność i nadmierny zasięg. Roblox twierdzi, że ogranicza to sposób wykorzystania danych: „Nasze systemy i procesy są zaprojektowane w taki sposób, aby dane gromadzone dla bezpieczeństwa były wykorzystywane wyłącznie do celów bezpieczeństwa”.
Jeśli chodzi o uczciwość, firma zwraca uwagę na ciągłe szkolenia i przejrzystość: „Koncentrujemy się na tym, aby nasze systemy bezpieczeństwa były zarówno wysoce skuteczne, jak i uczciwe”.
Zapewniają także twórcom większą widoczność: „Wprowadziliśmy nowy wykres w panelu twórcy, który pozwala programistom dokładnie sprawdzić, ile serwerów ich gier zostało wyłączonych”.
Dokąd to zmierza dalej
Ten system dopiero się zaczyna. Jednym z przyszłych celów będzie wykrywanie odtworzeń wydarzeń ze świata rzeczywistego, które mogą przekroczyć granicę.
Kaufman wyjaśnia, dlaczego kontekst ma tutaj znaczenie: „Standardowe filtry mogą wykryć konkretny budynek lub wiersz tekstu w izolacji i nie rozpoznać naruszenia. Jednak moderacja multimodalna w czasie rzeczywistym może zrozumieć związek między środowiskiem, sposób, w jaki wchodzą w interakcję awatary i towarzyszący mu czat”.
Istnieje również potrzeba wyjścia poza zamykanie serwerów: „Pracujemy nad sposobami identyfikowania konkretnych złych aktorów, abyśmy mogli ich usunąć bez zakłócania rozgrywki przeważającej większości naszych graczy, którzy mają dobre intencje”.
Najważniejsze wnioski Kurta
Stanowi to poważną zmianę w podejściu platform internetowych do bezpieczeństwa. Zamiast reagować, gdy coś pójdzie nie tak, Roblox próbuje powstrzymać szkodliwe zachowania, zanim większość użytkowników je zobaczy. To wielka obietnica, szczególnie na taką skalę. Jednocześnie zwraca uwagę na głębsze pytanie o przyszłość przestrzeni online. W miarę jak sztuczna inteligencja będzie coraz bardziej angażować się w moderowanie zachowań, równowaga między bezpieczeństwem, uczciwością i wolnością stanie się jeszcze bardziej skomplikowana.
Oto pytanie, nad którym warto się zastanowić: jeśli sztuczna inteligencja decyduje teraz w czasie rzeczywistym, co przekracza granicę, jak dużą kontrolę możemy jej przekazać? Daj nam znać, pisząc do nas na adres Cyberguy.com
KLIKNIJ TUTAJ, ABY POBRAĆ APLIKACJĘ FOX NEWS
Zarejestruj się, aby otrzymać mój DARMOWY raport CyberGuy
Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie — bezpłatnie, jeśli dołączysz do mojego CYBERGUY.COM biuletyn
Prawa autorskie 2026 CyberGuy.com. Wszelkie prawa zastrzeżone.