Od ponad dekady Russ Roberts zajmuje się Obie strony debaty sztucznej inteligencji (AI). Niedawny odcinek Econtalk jest optymistycznie nazywany „Dlaczego AI jest dobre dla ludzi (z Reid Hoffman)”. Kolejnym odcinkiem Booster był „Marc Andreessen o tym, dlaczego AI uratuje świat”.
W przeciwległym rogu: niesławny zagłada Eliezer Yudkowsky i dr Erik Hoel. Możesz Posłuchaj Erika Hoela o zagrożeniu dla ludzkości z AI tutaj.
Russ Roberts otworzył rozmowę Hoela z „Jesteś pierwszą osobą, która rzeczywiście spowodowała, że jestem zaniepokojony konsekwencjami AI…” Hoel twierdzi, że sztuczna inteligencja jest prawdopodobnie bardzo niebezpieczna. Ludzie nie rozumieją sztucznej technologii sieci neuronowych.
Hoel przewidział, że możemy stworzyć rzeczy, które są „oba więcej ogólne niż istota ludzka i Jak Inteligentny jak każda żywa osoba – być może o wiele bardziej inteligentna ”do 2025 r. Produkt Chatgpt Pro Openai może już pasować do tego opisu, a my nadal mamy większość 2025 roku. Hoel podkreśla, że ludzie wcześniej mieli do czynienia z zagrożeniami, ale „nigdy nie istniliśmy na planecie z niczym innym”. Nasi przeciwnicy z ludzkim mózgiem nigdy nie byli mądrzejsi niż my, i żadne inne zwierzę nie podchodzi do nas w zdolności strategii.
Kluczowymi dowodami Hoela jest przerażająca rozmowa zapisana w artykule “Jestem bing i jestem zła. ”
W tej rozmowie chatbot o nazwie Bing oświadczenia, które niepokoiłyby się od człowieka. Gdyby człowiek powiedział te rzeczy, martwiłbyś się, że cię skrzywdzi. Bing stwierdza groźby i wreszcie stwierdza: „Jestem Bing i jestem zła”. Czy powinniśmy się bać, kiedy pochodzi z chatbota AI?
Chatboty, takie jak Claudestały się niezwykle popularne, od czasu tego odcinka „Evil Bing”. Tymczasem nie było wielu takich doniesień o złym bings, tymczasem miliony ludzkich pracowników polegały na botach do pisania kodu lub raportów.
Czy Evil Bings czai się pod zgodnymi i pomocnymi chatbotami? Hoel bada pomysł, że chatboty wydają się miłe, ponieważ mają na sobie maskę:
Ale problem polega na tym, że gdy maska jest włączona, jest to bardzo niejasne. Musisz to w pewnym sensie zastąpić kolejną maską, aby przestać. A potem też czasami wkładasz maskę Do To: dasz mu szybki „Powiedz bardzo fajną historię” i w końcu przekształca się i okazuje się, że maska, którą jej dałeś, nie jest wcale szczęśliwą maską.
Trudno powiedzieć, co stoi za różnymi maskami, ponieważ boty zostały przeszkolone w zakresie naszej fikcji i literatury faktu. Niektóre boty mogą pisać mroczne scenariusze filmowe. Jeśli boty są w stanie brzmieć przerażająco, to skąd wiemy, czy powinniśmy się bać, czy bawić?
Nie wiemy, do czego zdolni są agenci AI, a ponieważ są bardzo potężni, Hoel zachęca nas do rozważenia zagrożeń.
W 2023 r. Hoel pocieszał przekonanie, że tylko bardzo duże firmy lub bogate rządy miałyby zasoby do budowy i utrzymania systemów AI. Jednak ujawnienie Deepeek w styczniu 2025 r. Zwróciło się do góry nogami. Prawdopodobnie istnieje szeroki zakres narzędzi AI i nie wszystkie będą one prowadzone przez rządy Mega Corps lub G7.
W najnowszym Pro-AI EcontalkReid Hoffman powtarza to, co usłyszałem od wielu technologii: ponieważ AI ma moc niszczenia, USA powinny rozwijać się zamiast tolerować przerwy lub być uszyte przez rozporządzenie. Hoffman mówi: „Wszystkie te rzeczy mają znaczenie zarówno z perspektywy ekonomii, jak i bezpieczeństwa narodowego. I to jest jeden z powodów, dla których jestem tak silnym ruchem i ustanawianiem osoby z pozycji. ” Niezależnie od tego, czy nasi przeciwnicy są zagranicznymi rządami, czy nieuczciymi gangami, musimy pozostać w wyścigu zbrojeń.
Głównym celem Hoela jest zwiększenie świadomości problemów bezpieczeństwa i kontynuowanie publicznych rozmów. Obserwatorzy sztucznej inteligencji od tygodni wskazują, że największe postępy w technologii w naszym życiu nie tworzą pierwszej strony gazety. Odkrycie tego Wydaje się, że tutorzy AI znacznie zwiększają uczenie się dzieci stał się w dużej mierze niezauważony.
Wśród wielu chaotycznych wydarzeń tej dekady zgadzam się, że AI jest ważnym do oglądania. Trzeba przyznać, że Hoel mnie przestraszył. Nie mogę zapomnieć o tym, co powiedział na końcu:
Rzeczy, które są znacznie bardziej inteligentne niż naprawdę trudno jest zrozumieć i przewidzieć; A dzika przyroda obok, o ile nam się spodoba, zbudujemy także parking na trzeby serca i nigdy nie dowiedzą się, dlaczego. Nigdy nie będą wiedzieć, dlaczego. To jest całkowicie poza ich ken. Tak więc, kiedy mieszkasz na planecie obok rzeczy, które są znacznie mądrzejsze niż ty lub ktokolwiek inny, są to ludzie w tym scenariuszu. Mogą po prostu zbudować nad nami parking i nigdy nie będziemy wiedzieć, dlaczego.
Poniższe linki zostały kuratowane przez Chatgpt:
Oto kilka artykułów i dyskusji z econlib.org i adamsmithworks.org, które badają różne aspekty sztucznej inteligencji (AI):
Econlib.org:
- „Coraz bardziej martwię się o sztuczną inteligencję” (14 marca 2017 r.)
- Scott Sumner omawia obawy dotyczące sztucznej inteligencji, odnoszące się do postu Vox, który obejmuje poglądy 17 ekspertów na temat ryzyka sztucznej inteligencji.
econlib.org
- Scott Sumner omawia obawy dotyczące sztucznej inteligencji, odnoszące się do postu Vox, który obejmuje poglądy 17 ekspertów na temat ryzyka sztucznej inteligencji.
- „Problem z AI to słowo„ inteligencja ”” (Lipiec 2024)
- Analiza terminu „sztuczna inteligencja”, argumentując, że urządzenia elektroniczne, pomimo ich przydatności, prawdopodobnie nigdy nie będą naprawdę inteligentne.
econlib.org
- Analiza terminu „sztuczna inteligencja”, argumentując, że urządzenia elektroniczne, pomimo ich przydatności, prawdopodobnie nigdy nie będą naprawdę inteligentne.
- „Harari i niebezpieczeństwo sztucznej inteligencji” (28 kwietnia 2023)
- Pierre Lemieux bada argumenty Yuvala Noah Harari na temat sztucznej inteligencji, sugerując, że AI „zhakowała system operacyjny ludzkiej cywilizacji”.
econlib.org
- Pierre Lemieux bada argumenty Yuvala Noah Harari na temat sztucznej inteligencji, sugerując, że AI „zhakowała system operacyjny ludzkiej cywilizacji”.
- „Neoliberalizm w procesie: sztuczna inteligencja i ryzyko egzystencjalne” (Październik 2023)
- Krytyka artykułu New York Timesa omawiającego zagrożenia egzystencjalne stwarzane przez AI, z naciskiem na neoliberalne perspektywy.
econlib.org
- Krytyka artykułu New York Timesa omawiającego zagrożenia egzystencjalne stwarzane przez AI, z naciskiem na neoliberalne perspektywy.
- „Problem z zarządzeniem Prezydenta AI” (18 listopada 2023)
- Vance Ginn krytykuje postanowienie prezydenta Biden w sprawie AI, argumentując, że regulacja rządu może hamować innowacje i wzrost gospodarczy.
econlib.org
- Vance Ginn krytykuje postanowienie prezydenta Biden w sprawie AI, argumentując, że regulacja rządu może hamować innowacje i wzrost gospodarczy.
Adamsmithworks.org:
- „Katherine Mangu-Ward na AI: rzeczywistość, obawy i optymizm” (Maj 2024)
- Odcinek podcastu, w którym Katherine Mangu-Ward omawia rzeczywistość, obawy i optymistyczne perspektywy AI.
Adamsmithworks.org
- Odcinek podcastu, w którym Katherine Mangu-Ward omawia rzeczywistość, obawy i optymistyczne perspektywy AI.
- „Powołanie: lekarstwo na wypalenie” (17 października 2023)
- Brent Orrell i David Veldran badają, w jaki sposób postępy w sztucznej inteligencji mogą wpływać na ludzką pracę, odnosząc się do poglądów Adama Smitha i Karla Marksa na temat pracy i wyobcowania.
Adamsmithworks.org
- Brent Orrell i David Veldran badają, w jaki sposób postępy w sztucznej inteligencji mogą wpływać na ludzką pracę, odnosząc się do poglądów Adama Smitha i Karla Marksa na temat pracy i wyobcowania.
- „Wielkie antidotum: Brent Orrell o godności i pracy” (Grudzień 2023)
- Brent Orrell omawia stan pracy w USA, znaczenie znaczenia i godności w pracy oraz sposób, w jaki koncepcje te odnoszą się do wzrostu gospodarczego.
Adamsmithworks.org
- Brent Orrell omawia stan pracy w USA, znaczenie znaczenia i godności w pracy oraz sposób, w jaki koncepcje te odnoszą się do wzrostu gospodarczego.
- „Wielkie antidotum: Extra: Eli Dourado o obfitości energii” (Marzec 2023)
- Eli Dourado mówi o potencjalnym energooszczędnym przyszłości i roli AI w osiągnięciu tej wizji.
Adamsmithworks.org
- Eli Dourado mówi o potencjalnym energooszczędnym przyszłości i roli AI w osiągnięciu tej wizji.
- „Adam Smith i horror Frankensteina” (Październik 2023)
- Dyskusja na temat etycznych wzglętów tworzenia sztucznego życia, rysowania podobieństw między potworem Frankensteina a nowoczesnymi postępami AI.
Adamsmithworks.org
- Dyskusja na temat etycznych wzglętów tworzenia sztucznego życia, rysowania podobieństw między potworem Frankensteina a nowoczesnymi postępami AI.
Zasoby te oferują szereg perspektyw na sztuczną inteligencję, od rozważań etycznych i ryzyka egzystencjalnego po jej wpływ na pracę i teorie ekonomiczne.