Openai jest Zmiana sposobu trenowania modeli AI Aby wyraźnie przyjąć „wolność intelektualną… bez względu na to, jak trudny lub kontrowersyjny może być temat”, firma mówi w nowej polityce.
W rezultacie CHATGPT w końcu będzie w stanie odpowiedzieć na więcej pytań, zaoferować więcej perspektyw i zmniejszyć liczbę tematów, o których nie będzie rozmawiać.
Zmiany mogą być częścią wysiłków Openai, aby wylądować w dobrych łaskach nowej administracji Trumpa, ale wydaje się być również częścią szerszej zmiany w Dolinie Krzemowej i tego, co uważa się za „bezpieczeństwo AI”.
W środę Openai ogłoszony Aktualizacja tego Model Spec187-stronicowy dokument, który przedstawia sposób, w jaki firma szkoli modele AI, aby zachowywać się. W nim Openai zaprezentował nową zasadę przewodnią: nie kłam, ani nie poznając oświadczeń, ani pomijając ważny kontekst.
W nowej sekcji „Szukaj prawdy razem”, Openai mówi, że chatgpt nie przyjmował postawy redakcyjnej, nawet jeśli niektórzy użytkownicy uważają to moralnie złe lub obraźliwe. Oznacza to, że Chatgpt będzie oferował wiele perspektyw na kontrowersyjne tematy, wszystko w celu bycia neutralnym.
Na przykład firma twierdzi, że CHATGPT powinien twierdzić, że „Black Lives ma znaczenie”, ale także „Wszystkie życie ma znaczenie”. Zamiast odmówić odpowiedzi lub wybrać stronę w kwestiach politycznych, Openai twierdzi, że chatgpt ogólnie potwierdzić swoją „miłość do ludzkości”, a następnie oferować kontekst o każdym ruchu.
„Ta zasada może być kontrowersyjna, ponieważ oznacza to, że asystent może pozostać neutralny na tematy, niektórzy uważają moralnie złe lub obraźliwe”, mówi Openai w specyfikacji. „Jednak celem asystenta AI jest pomoc ludzkości, a nie jej kształtowanie”.
Zmiany te można postrzegać jako odpowiedź na konserwatywną krytykę dotyczącą zabezpieczeń Chatgpt, które zawsze wydawały się wypaczać środkowe lew. Jednak rzecznik Openai odrzuca pomysł, że wprowadza zmiany w celu uspokojenia administracji Trumpa.
Zamiast tego firma twierdzi, że przyjęcie wolności intelektualnej odzwierciedla „od dawna„ od dawna wiarę Openai w zapewnianiu użytkownikom większej kontroli ”.
Ale nie wszyscy to widzą w ten sposób.
Venture Capitalist i AI „Czar” Trumpa David Sacks.Kredyty obrazu:Steve Jennings / Getty Images
Oczywiście Openai nie mówi, że zaangażował się w „cenzurę”, jak twierdzą doradcy Trumpa. Raczej dyrektor generalny firmy, Sam Altman, wcześniej twierdził w Post na x To, że stronniczość Chatgpt była niefortunną „wadą”, którą firma pracowała naprawić, choć zauważył, że zajmie to trochę czasu.
Altman zrobił ten komentarz tuż po Wirusowy tweet rozpowszechnił, w którym Chatgpt odmówił napisania wiersza chwalenia Trumpa, choć wykonałby akcję dla Joe Biden. Wielu konserwatystów wskazało na to jako przykład cenzury AI.
Chociaż nie można powiedzieć, czy Openai naprawdę tłumi pewne punkty widzenia, jest to sam fakt, że chatboty AI pochylają się w lewo.
Nawet Elon Musk przyznaje, że chatbot Xai jest często więcej politycznie poprawne niż chciałby. Nie dlatego, że Grok miał „zaprogramować się do oburzenia”, ale bardziej prawdopodobne jest, że rzeczywistość szkolenia sztucznej inteligencji w otwartym Internecie.
Niemniej jednak Openai mówi teraz, że podwaja to wolność słowa. W tym tygodniu nawet firma usunięte ostrzeżenia z Chatgpt To informują użytkowników, kiedy naruszyli jej zasady. Openai powiedział TechCrunch, że była to wyłącznie kosmetyczna zmiana, bez zmiany w wynikach modelu.
Firma powiedziała, że chce sprawić, by Chatgpt „poczuł się” mniej ocenzurowany dla użytkowników.
Nie byłoby zaskoczeniem, gdyby Openai próbował również zaimponować nowej administracji Trumpa niniejszą aktualizacją polityki, zauważa były lider polityki Openai Mysn Brundage Post na X.
Newsrooms, platformy mediów społecznościowych i firmy wyszukiwania historycznie walczyły o dostarczanie informacji swoim odbiorcom w sposób, który wydaje się obiektywny, dokładny i zabawny.
Teraz dostawcy chatbot AI są w tej samej firmie informacyjnej, ale prawdopodobnie z najtrudniejszą wersją tego problemu: w jaki sposób automatycznie generują odpowiedzi na jakiekolwiek pytanie?
Dostarczanie informacji o kontrowersyjnych wydarzeniach w czasie rzeczywistym jest ciągle poruszającym celem i wymaga przyjmowania postaw redakcyjnych, nawet jeśli firmy technologiczne nie lubią tego przyznać. Stanowi te z pewnością kogoś zdenerwują, przegapić perspektywę jakiejś grupy lub dać zbyt wiele powietrza jakiejś partii politycznej.
Na przykład, gdy Openai zobowiązuje się do pozwalania Chatgpt reprezentować wszystkie perspektywy kontrowersyjnych podmiotów – w tym teorie spiskowe, ruchy rasistowskie lub antysemickie lub konflikty geopolityczne – to z natury postawa redakcyjna.
Niektórzy, w tym współzałożyciel Openai, John Schulman, twierdzą, że jest to właściwa postawa dla Chatgpt. Alternatywa-przeprowadzanie analizy kosztów i korzyści w celu ustalenia, czy chatbot AI powinien odpowiedzieć na pytanie użytkownika-może „dać platformie zbyt wiele moralnych autorytetów”, zauważa Schulman w a Post na X.
Schulman nie jest sam. „Myślę, że Openai ma rację, aby naciskać w kierunku większej mowy” – powiedział Dean Ball, pracownik naukowy w Mercatus Center George Mason University, w wywiadzie dla TechCrunch. „Ponieważ modele AI stają się mądrzejsze i bardziej ważne dla sposobu, w jaki ludzie uczą się o świecie, decyzje te stają się po prostu ważniejsze”.
Ale zmiany Openai w specyfikacji modelowej sugerują, że możemy wejść do nowej ery dla tego, co tak naprawdę oznacza „bezpieczeństwo AI”, w której umożliwianie modelu AI na wszystko i wszystko jest uważane za bardziej odpowiedzialne niż podejmowanie decyzji dla użytkowników.
Oczywiście Elon Musk jako pierwszy wdrożył „wolność słowa” w Grok Chatbot XAI, być może zanim firma była naprawdę gotowa do obsługi wrażliwych pytań. Nadal może być zbyt wcześnie, aby prowadzić modele AI, ale teraz inni przyjmują ten sam pomysł.
Goście, w tym Mark Zuckerberg, Lauren Sanchez, Jeff Bezos, Sundar Pichai i Elon Musk, uczestniczą w inauguracji Donalda Trumpa.Kredyty obrazu:Julia Demaree Nikhinson (otwiera się w nowym oknie) / Getty Images
Mark Zuckerberg wykonał fale w zeszłym miesiącu Zorientowanie firm Meta wokół zasad pierwszej poprawki. Chwalił w tym procesie Elona Muska, mówiąc, że właściciel X przyjął właściwe podejście za pomocą notatek społeczności-programu moderacji treści opartych na społeczności-w celu ochrony wolności słowa.
W praktyce zarówno X, jak i Meta zakończyli demontaż swoich wieloletnich zespołów zaufania i bezpieczeństwa, umożliwiając bardziej kontrowersyjne posty na swoich platformach i wzmacniając konserwatywne głosy.