
z Strzeż się-Data-Winter Wydział
To jest ostatni kawałek w Seria postów To bada, w jaki sposób możemy przemyśleć przecięcie sztucznej inteligencji, kreatywności i polityki. Od zbadania przestarzałych metafor regulacyjnych po przesłuchanie norm autorskich i podkreślenie ryzyka duszących innowacji, każdy post zajmuje się innym kawałkiem układanki AI. Razem opowiadają się za bardziej zrównoważonym, przyszłościowym podejściem, które uznaje potencjał ewolucji technologicznej, jednocześnie chroniąc prawa twórców i zapewnienie rozwoju AI służy szerszym interesom społeczeństwa. Możesz przeczytać PierwszyW drugiW trzeciW czwartyW piątyI Szóste posty W serii.
W miarę kontynuowania rozmowy na temat wpływu AI na branże kreatywne, istnieje powszechne nieporozumienie, że modele AI „kradną” treść poprzez wchłanianie go za darmo. Ale jeśli przyjrzymy się bliżej, jak działa trening AI, staje się jasne, że wcale tak nie jest. Modele AI nie po prostu replikują ani nie przepakowują dzieł kreatywnych – podziel je na coś znacznie bardziej abstrakcyjnego: tokeny. Te tokeny są małymi, rozdrobnionymi elementami danych, które nie reprezentują już twórczego wyrażania pomysłu. I tutaj leży rozróżnienie: prawa autorskie ma chronić wyrażenienie poszczególne słowa, frazy lub wzorce, które składają się na te prace.
Analogia Lego: Załamanie kreatywności w tokeny
Wyobraź sobie, że jesteś twórcą, a twoja praca jest jak szczegółowy Model Lego of the Star Wars Millennium Falcon. Jest skomplikowany, z każdym kawałkiem idealnie zmontowanym, aby stworzyć coś wyjątkowego i cennego. Teraz wyobraź sobie, że pojawia się system AI – a nie zabrać sokoła tysiąclecia i wyświetlić go jako własne stworzenie, ale aby Załóż to na poszczególne bloki Lego. Bloki te są następnie rozproszone wśród milionów innych z różnych źródeł, a sztuczna inteligencja używa ich do budowy zupełnie nowych struktur – rzeczy, które nie wyglądają jak Sokoły Millennium.
W tej analogii, Bloki Lego są tokeny Te modele AI używają. Te tokeny są fragmentami danych – częścią informacji pozbawionych oryginalnego kontekstu i twórczej ekspresji. Podobnie jak utwory Lego, tokeny są abstrakcyjne i mogą być rekombinowane na nieskończoną liczbę sposobów stworzenia czegoś zupełnie nowego. AI nie kopia Twój sokół; Zajmuje elementy składowe (tokeny) i używa ich do stworzenia czegoś, co nie jest repliką oryginału, ale coś zupełnie innego, takiego jak zamek lub statek kosmiczny, którego nigdy wcześniej nie widziałeś.
To jest kluczowe rozróżnienie: Modele AI nie wchłaniają całej kreatywności i odtwarzając je jako własne. Uczą się wzorców z ogromnych zestawów danych i wykorzystują te wzorce do generowania nowych treści. Tokeny nie odzwierciedlają już wyrażenia oryginalnego dzieła, a zatem nie naruszają twórczej esencji, że prawo autorskie ma na celu ochronę.
Dlaczego najnowsza treść ma znaczenie: AI musi odzwierciedlać współczesny język i wartości
Jest jeszcze jeden krytyczny punkt, który często jest pomijany: modele AI wymagają dostępu Ostatnia, współczesna treść być użytecznym, istotnym i etycznym. Wyobraźmy sobie przez chwilę, co by się stało, gdyby modele AI były ograniczone do nauki tylko z dzieł domen publicznych, z których wiele ma dziesięciolecia, a nawet wieki.
Chociaż prace domeny publicznej są cenne, często odzwierciedlają normy społeczne i uprzedzenia swoich czasów. Jeśli modele AI są szkolone przede wszystkim przestarzałe SMStyistnieje poważne ryzyko, że mogliby „mówić” w taki sposób mizoginiczne, stronnicze, anty-LGBTQ+, a nawet wręcz rasistowskie. Wiele prac domeny publicznej zawiera język i pomysły, które nie są już akceptowalne w dzisiejszym społeczeństwie, a jeśli AI jest ograniczona do tych źródeł, może to przypadkowo propagować szkodliwe, przestarzałe poglądy.
Aby upewnić się, że AI odzwierciedla bieżące wartości, język włączniei nowoczesne normy społeczne wymagają dostępu do najnowszych treści. Oznacza to analizę i uczenie się z dzisiejszych książek, artykułów, przemówień i innych form komunikacji. Jeśli twórcy i posiadacze praw autorskich rezygnują z umożliwienia wykorzystania ich treści do szkolenia AI, ryzykujemy tworzenie modeli, które nie odzwierciedlają różnorodności, postępu i włączenia współczesnego społeczeństwa.
Na przykład język ewoluuje szybko – po prostu spójrz na zwiększone użycie Zaimki neutralne pod względem płci lub warunki takie jak przecięcie W ostatnich latach. Jeśli AI zostanie odcięte od tych współczesnych trendów językowych, będzie walczył o zrozumienie i zaangażowanie się w świat, tak jak dzisiaj. To tak, jakby poprosić AI przeszkoloną wyłącznie na szekspirowskim angielskim o rozmowę z nastolatkiem XXI wieku-po prostu nie zadziałałoby.
Artykuł 4 dyrektywy UE: Wychodzenie z tekstu i wydobywania danych
Przynieśmy Dyrektywa UE w zakresie praw autorskich na cyfrowym jednolitym rynku (DSM) na zdjęcie. Dyrektywa obejmuje przepisy (art. 4), umożliwiając posiadaczom praw autorskich na rezygnację z użycia treści w Wydobycie tekstu i danych (TDM). TDM ma kluczowe znaczenie dla szkolenia modeli AI, ponieważ pozwala im analizować i uczyć się z dużych zestawów danych. Mechanizm rezygnacji daje twórcom i posiadaczom praw autorskich możliwość wyraźnego rezerwowania swoich dzieł z użycia dla TDM.
Ważne jest jednak, aby pamiętać, że ten rezygnacja dotyczy Wszystkie modele AInie tylko generatywne systemy AI, takie jak Chatgpt. Oznacza to, że rezygnacją w szeroki, ogólny sposób twórcy mogą nieumyślnie ograniczyć potencjał modeli AI, które nie mają nic wspólnego z branżami kreatywnymi-narzędzi, które są kluczowe dla postępów w opiece zdrowotnej, edukacji, a nawet w codziennych udogodnień, z których wielu z nas korzysta.
Ryzyko zimy danych: dlaczego szerokie rezygnacje mogą zaszkodzić innowacjom
Co się stanie, jeśli twórcy i posiadacze praw autorskich w Europie zaczną rezygnować z TDM na dużą skalę? Odpowiedź jest czymś, co badacze AI strach: a Dane Winter. Bez dostępu do zróżnicowanej i bogatej gamy danych, modele AI będą walczyć o ewolucję. Może to spowolnić innowacje nie tylko w branżach kreatywnych, ale w całej gospodarce.
AI potrzebuje wysokiej jakości danych do prawidłowego funkcjonowania. Zasada Śmieci, śmieci Obowiązuje tutaj: Jeśli modele AI będą głodne z różnorodnego wejścia, ich wyjście będzie wadliwe, stronnicze i niższej jakości. I chociaż może to nie wydawać się problemem dla niektórych branż, ma to efekt falowania. Każde narzędzie AI, na którym polegamy – od inteligentni asystenci Do Zastosowania badań medycznych—Tepends od solidnych danych szkoleniowych. Ograniczenie dostępu do tych danych nie tylko utrudnia postęp w innowacjach AI; tłumi Narzędzia interesu publicznego które mają dalekosiężne korzyści dla społeczeństwa.
Pomyśl o tym: wielu twórców prawdopodobnie używa narzędzi opartych na AI w swoim codziennym życiu-czy to do usprawnienia przepływów pracy, generowania nowych pomysłów, a nawet po prostu organizowania informacji. Wychodząc z TDM, mogliby nieumyślnie uszkodzić same narzędzia, które ulepszają ich własne procesy twórcze.
Droga do przodu: Równowaga między ochroną a innowacją
Podczas gdy prawa autorskie są kluczowe dla ochrony twórców i zapewnienia uczciwej rekompensaty, równie ważne jest, aby nie nadmiernie regulować w sposób, który tłumi innowacje. Modele AI nie absorbują całej pracy za darmo; Rozbijają je na nierozpoznawalne tokeny, które umożliwiają zastosowania transformacyjne. Zamiast rezygnacji z TDM jako reakcji kolana, twórcy powinni rozważyć długoterminowe konsekwencje ograniczenia potencjału AI do wprowadzania innowacji i ulepszania własnych branż.
Należy uderzyć równowagę. Ochrona praw autorskich powinna zapewnić, że twórcy są dość rekompensowni, ale nie należy go władać jako narzędzie do ograniczenia samych danych napędzających innowacje AI. Twórcy i decydenci muszą rozpoznać, że AI nie jest wrogiem –To współpracownik. A jeśli nie jesteśmy ostrożni, możemy stawić czoła Dane Wintertam, gdzie narzędzia, na których polegamy zarówno dla wygody, jak i awansu, są osłabione z powodu decyzji o krótkowolniczej.
Caroline de Cock jest ekspertem ds. Komunikacji i polityki, autorką i przedsiębiorcą. Jest dyrektorem zarządzającym N-Square Consulting and Square-Up Agency oraz szefem badań w Laboratorium Informacji. Caroline specjalizuje się w prawach cyfrowych, rzecznictwie politycznym i innowacji strategicznych, napędzanych jej zaangażowaniem w wspieranie globalnej łączności i pozytywnych zmian.
Złożone pod: bloki konstrukcyjneW prawo autorskieW kreatywnośćW Kreatywność i AIW kulturaW Dane WinterW LLMSW szkolenie