
z jest-wciąż-źle dział
W odpowiedzi na krytykę ustawodawcy zawęzili zakres Ustawa o strażyprojekt ustawy mający na celu ograniczenie dostępu nieletnich do niektórych systemów sztucznej inteligencji. The wcześniejsza wersja mogła mieć szerokie zastosowanie do niemal każdego chatbota lub narzędzia wyszukiwania wykorzystującego sztuczną inteligencję. Znowelizowana ustawa w węższym stopniu koncentruje się na tzw. „towarzyszach AI” – systemach konwersacyjnych zaprojektowanych w celu symulowania interakcji emocjonalnych lub interpersonalnych z użytkownikami.
Zmiana ta rozwiązuje niektóre z najpowszechniejszych obaw związanych z pierwotną propozycją, choć pozostają pewne pytania dotyczące zasięgu projektu ustawy. Konkluzja: poprawiona ustawa w dalszym ciągu stwarza poważne problemy w zakresie prywatności, wypowiedzi w Internecie i możliwości wyboru przez rodziców.
Nowa ustawa GUARD w dalszym ciągu nakłada na firmy oferujące rozwiązania AI obowiązek wdrażania uciążliwych systemów weryfikacji wieku powiązanych z tożsamością użytkowników w świecie rzeczywistym. Nawet rodzice, którzy szczególnie chcą, aby ich nastolatki korzystały z tych systemów, nadal napotykają poważne przeszkody. Rodzina może zdecydować, że konwersacyjne narzędzie sztucznej inteligencji pomoże izolowanemu nastolatkowi ćwiczyć interakcje społeczne lub angażować się w nieszkodliwe, kreatywne odgrywanie ról. Rodzic oddelegowany do wojska może stworzyć dla młodszego dziecka stałego gawędziarza opartego na sztucznej inteligencji. Zgodnie ze zmienioną ustawą użytkownicy ci nadal będą musieli podlegać obowiązkowej kontroli wieku w związku z wrażliwymi danymi osobowymi lub finansowymi, zanim oni sami lub ich dzieci będą mogli korzystać z tych usług.
Zmieniona ustawa pozostawia również niejasne definicje, jednocześnie gwałtownie zwiększając kary dla deweloperów i firm, które błędnie ocenią swoje oceny. Kongres zawęził ustawę GUARD. Nadal jednak próbuje rozwiązać skomplikowany problem społeczny z niejasnymi standardami prawnymi, dużą odpowiedzialnością i systemami weryfikacji naruszającymi prywatność.
Inwazyjna weryfikacja wieku pozostaje w projekcie ustawy
Zmieniona ustawa GUARD w dalszym ciągu wymaga, aby firmy oferujące towarzysze AI sprawdzały, czy użytkownicy są pełnoletni, za pomocą systemu „rozsądnej weryfikacji wieku”. Ustawa umożliwia szerszy zestaw metod weryfikacji niż poprzednia wersja, ale nadal są one powiązane z rzeczywistą tożsamością użytkownika, np. z dokumentacją finansową lub kontami zweryfikowanymi pod względem wieku w mobilnym systemie operacyjnym lub sklepie z aplikacjami.
Takie podejście w dalszym ciągu budzi poważne obawy dotyczące prywatności i dostępu. Miliony Amerykanów nie mają aktualnego dowodu tożsamości, kont w dużych bankach ani stałego dostępu do systemów tożsamości cyfrowej przewidzianych w ustawie. Nawet dla tych, którzy to robią, wymaganie weryfikacji powiązanej z tożsamością w celu uzyskania dostępu do narzędzi do rozpoznawania mowy online stwarza realne ryzyko dla prywatności, anonimowości i bezpieczeństwa danych. Wiele osób tak jest słusznie się przestraszył przez systemy weryfikacji wieku i mogą po prostu zrezygnować z korzystania z tych usług, zamiast narażać swoją prywatność i bezpieczeństwo.
Zmieniona definicja „towarzysza AI” jest również węższa niż poprzednio, ale jest niejasna na marginesach. Projekt ustawy koncentruje się obecnie na systemach, które „angażują się w interakcje obejmujące ujawnianie emocji” od użytkownika lub prezentują „trwałą tożsamość, osobowość lub charakter”.
EFF docenia fakt, że autorzy uznali, że wcześniejsza definicja może dotyczyć różnych systemów sztucznej inteligencji niebędących chatbotami, w tym wyszukiwarek internetowych. Jednak zawężoną definicję można odczytać jako odnoszącą się również do różnych narzędzi do czatowania, które nie są towarzyszami sztucznej inteligencji. Na przykład wiele nowoczesnych systemów konwersacyjnych online w coraz większym stopniu rozpoznaje emocje użytkowników i na nie reaguje. Systemy obsługi klienta, w tym te całkowicie zasilane przez człowieka, które istniały na długo przed chatbotami AI, od dawna projektowano tak, aby rozpoznawały frustrację i reagowały empatycznie. W miarę jak konwersacyjna sztuczna inteligencja staje się bardziej responsywna emocjonalnie, wysiłki chatbota obsługi klienta mające na celu okazanie empatii mogą objąć definicję ustawową.
Większe kary, większe zachęty do ograniczania dostępu
Zmieniona ustawa znacznie zwiększa także kary. Zamiast 100 000 dolarów za każde naruszenie firmom – w tym małym deweloperom – mogą grozić kary w wysokości do 250 000 dolarów za każde naruszenie, egzekwowane zarówno przez urzędników federalnych, jak i stanowych.
Tego rodzaju odpowiedzialność stwarza zachęty do nadmiernego ograniczania dostępu, szczególnie w przypadku nieletnich. Zwłaszcza mniejsi programiści mogą zdecydować, że bezpieczniej jest całkowicie zablokować młodszych użytkowników, wyłączyć funkcje konwersacyjne lub w ogóle zrezygnować z tworzenia niektórych narzędzi, zamiast narażać się na surowe kary wynikające z niejasnych standardów.
Obawy leżące u podstaw tej ustawy są realne. Niektóre systemy sztucznej inteligencji angażowały się w niepokojące interakcje z bezbronnymi użytkownikami, w tym z nieletnimi. Jednak właściwą odpowiedzią na to pytanie jest ukierunkowane egzekwowanie prawa przeciwko złym podmiotom oraz przepisy dotyczące prywatności, które chronią nas wszystkich. Zamiast tego zmieniona ustawa GUARD wprowadza system naruszający prywatność, który utrudnia prawo do wypowiadania się, czytania i interakcji online.
Kongres rzeczywiście poprawił tę ustawę, ale podstawowe kwestie związane z przemówieniem EFF, prywatnością i bezpieczeństwem pozostają niezmienione.
Przesłane ponownie z Blog EFF poświęcony głębokim linkom.
Zapisano pod: weryfikacja wieku, AI, ai towarzysze, wolność słowa, akt wartowniczy, kontrola rodzicielska, prywatność