Szybkie rozwój technologii sztucznej inteligencji (AI) pobudziła pilną rozmowę na temat potrzeby solidnych przepisów. Profesor Paul Dumouchel z University of Quebec w Montrealu twierdzi, że powszechne nieporozumienie charakteru AI ma znaczące konsekwencje dla tego, jak należy go regulować. Ta analiza jest szczegółowo opisana w jego eseju „AI and Regulations”, opublikowana w czasopiśmie AI.
Profesor Dumouchel podkreśla, że sztucznej inteligencji nie należy postrzegać jako pojedynczej, monolitycznej istoty. Zamiast tego obejmuje różnorodne technologie poznawcze o różnych cechach i zastosowaniach. To nieporozumienie często prowadzi do nieefektywnych podejść regulacyjnych. Stwierdza: „postrzeganie sztucznej inteligencji jako czegoś, co istnieje, a nie jako zestaw technologii poznawczych… prowadzi do nieefektywnego podejścia do regulacji”. Ta perspektywa podkreśla znaczenie zrozumienia wieloaspektowego charakteru AI w celu opracowania skutecznych mechanizmów nadzoru.
Pilność regulacji AI wzrosła wraz z pojawieniem się zaawansowanych modeli AI, takich jak Chatgpt. Powstają pytania: Czy AI należy regulować? Jeśli tak, jak i przez kogo? Profesor Dumouchel bada te pytania, zauważając, że różnorodność technologii AI komplikuje krajobraz regulacyjny. Wyjaśnia, że AI obejmuje szeroki wachlarz urządzeń, algorytmów i zastosowań, z których każdy wymaga dostosowanych podejść regulacyjnych.
Profesor Dumouchel śledzi historyczne korzenie regulacji AI, zauważając, że wczesne badania AI opierały się na założeniu, że ludzka myśl może być precyzyjnie powtórzona przez maszyny. Doprowadziło to do przekonania, że ludzka i sztuczna inteligencja była zasadniczo podobna, co wpłynęło na myślenie regulacyjne. Jednak profesor Dumouchel twierdzi, że ten pogląd jest wadliwy. Pisze: „Twierdzenie, że nie ma różnicy między ludzką myślą a wydajnością sztucznego systemu poznawczego, opierało się zatem na możliwości stworzenia maszyny zdolnej do powielania wyników różnorodnych operacji intelektualnych”.
Krytykuje dwa powszechne podejścia do regulacji AI. Pierwszy to propozycja moratorium na badania AI, które opisuje jako sprzeczną i ostatecznie nieskuteczną miarę. Profesor Dumouchel twierdzi: „Moratorium nie jest jednak formą regulacji. To bardziej jak podwójne wiązanie, sprzeczne nakaz, który jest skazany na porażkę. ” Drugie podejście polega na osadzeniu rozważań etycznych w systemy AI, które, jak twierdzi, przeocza podstawowe różnice między ludzkimi i sztucznymi agentami.
Zamiast tego profesor Dumouchel opowiada się za ramami regulacyjnymi, które koncentrują się na unikalnych cechach systemów AI. Podkreśla znaczenie zrozumienia określonych domen poznawczych i ograniczenia agentów AI. W przeciwieństwie do ludzi systemy AI są ograniczone do danych i algorytmów, które definiują ich funkcje. To rozróżnienie ma kluczowe znaczenie dla opracowania przepisów dotyczących rzeczywistych możliwości i ryzyka AI.
Podkreśla także znaczenie przejrzystości i odpowiedzialności w systemach AI. Ponieważ agenci AI działają niewidzialnie i wszechobecnie, konieczne jest zapewnienie, aby ich działania były identyfikowalne i zrozumiałe. Profesor Dumouchel zauważa: „Nigdy nie spotykamy samego agenta, ponieważ ostatecznie jest funkcją matematyczną. Jesteśmy narażeni tylko na pewne konsekwencje jego funkcjonowania. ” Dlatego przepisy powinny nakładać jasne mechanizmy raportowania i rozliczalności dla systemów AI.
Profesor Dumouchel podsumowuje, podkreślając, że podstawowymi wyzwaniami regulacji AI są raczej polityczne niż etyczne lub metafizyczne. Wdrażanie technologii AI zmienia dynamikę władzy między różnymi podmiotami społecznymi, wymagając podejścia regulacyjnego, które rozważa te zmiany. Pisze: „Sztuczne systemy poznawcze oraz powiązane technologie informacyjne i komunikacyjne były centralne w niespotykanej koncentracji bogactwa i władzy, których jesteśmy świadkami”.
Podsumowując, badanie profesora Dumouchela podkreśla potrzebę dopracowanego i świadomego podejścia do regulacji AI. Rozpoznając AI jako zróżnicowany zestaw technologii poznawczych, decydenci mogą opracować bardziej skuteczne mechanizmy nadzoru, które dotyczą konkretnych ryzyka i możliwości systemów AI. Przejrzystość, rozliczalność i zrozumienie ograniczeń AI są niezbędnymi elementami solidnych ram regulacyjnych.
Referencje dziennika
Dumouchel, Paul. „AI i przepisy”. AI, vol. 4, nie. 4, 2023, s. 1023-1035. Doi: https://doi.org/10.3390/ai4040052
O autorze

Paul Dumouchel jest kanadyjskim, a do niedawna profesorem w Graduate School of Core Ethics and Frontier Sciences, Ritsumeikan University, Kioto, Japonia, gdzie myślał o filozofii politycznej i filozofii nauki. Jest autorem Emocje (Seuil, 1999) Ambiwalencja niedoboru i innych esejów (2014) i Jałowa ofiara (2015) oba w Michigan State University Press. Z Reiko Gotoh zredagował Przeciwko niesprawiedliwości: nowa ekonomia Amartya Sen (Cambridge University Press, 2009) i Więzi społeczne jako wolność (Berghahn Books, 2015). Jego najnowsza książka z Luisą Damiano jest Żyj z robotami (SEUIL, 2016) Tłumaczenie na angielski Życie z robotami (Harvard University Press) ukazał się w 2017 r., A tłumaczenie włoskie i koreańskie w 2019 r. Jest obecnie profesorem nadzwyczajnym na Wydziale Filozofii Université du Québec à Montréal, Kanada.
Paul Dumouchel jest Kanadyjczykiem, w latach 2003–2021 był profesorem filozofii politycznej i filozofii nauki w Graduate School of Core Ethics and Frontier Sciences na Uniwersytecie Ritsumeikan w Kioto w Japonii. Jest z Jean-Pierre Dupuy współautor Piekło rzeczy (Seuil, 1979). Jest także autorem Emocje (Seuil, 1999), a także Bezużyteczna ofiara (Flammarion, 2011), a także Ambiwalencja niedoboru i innych esejów (2014). Z Reiko Gotoh jest dyrektorem zbiorczym Przeciwko niesprawiedliwości: nowa ekonomia Amartya Sen (Cambridge University Press, 2009), a także Więzi społeczne jako wolność (Berghahn Books, 2015). Jego najnowsza książka z Luisą Damiano jest Żyj z robotami (Seuil, 2016) został przetłumaczony na angielski, włoski i koreański. Obecnie jest profesorem nadzwyczajnym w dziale filozofii University of Quebec w Montrealu w Kanadzie.