
z to-nie-AI,-to-LSD dział
Sztuczna inteligencja może być przydatna. Jednak wiele osób uważa, że jest to nic innego jak bezpłatny stażysta, na którym można polegać, aby wykonać całą pracę, na którą nie masz ochoty samodzielnie. (Im mniej się mówi o jego niewłaściwym użyciu w celu wygenerowania sieci pomyj, tym lepiej.)
Jak wszyscy na całym świecie, policja zaczyna polegać na sztucznej inteligencji przy wykonywaniu niektórych prac, których gliniarze nie lubią wykonywać sami. I na pewno idzie źle. Ponad rok temubyło już oczywiste, że organy ścigania po prostu naciskały przycisk „łatwego”, zamiast mądrze go wykorzystywać, aby pracować mądrzej i szybciej.
Axon — producent paralizatora i linii wszechobecnych obecnie kamer cielesnych — mocno naciska na przyjęcie sztucznej inteligencji. Nawet ona wie, że wykorzystanie sztucznej inteligencji może szybko stać się problematyczne, jeśli nie będzie odpowiednio wspierane przez ludzi. Ale ludzie, którym sprzedaje swoje produkty, również wydają się nie przejmować niczym innym niż możliwością wytwarzania dokumentów przy jak najmniejszym zaangażowaniu człowieka.
W raporcie zauważono, że Draft One zawiera funkcję, która może celowo wstawiać głupie zdania do wersji roboczych tworzonych przez sztuczną inteligencję w celu sprawdzenia, czy funkcjonariusze dokładnie przeglądają i poprawiają wersje robocze. Jednakże dyrektor generalny Axon wspomniał w a wideo o Draft One większość agencji decyduje się nie włączać tej funkcji.
Tak. Po prostu ich to nie obchodzi. Jeśli oznacza to, że sprawy zostaną odrzucone, ponieważ oświadczenia pod przysięgą zostały automatycznie napisane przez sztuczną inteligencję, niech tak będzie. Jeśli ktoś zostaje fałszywie oskarżony o przestępstwo lub fałszywie aresztowany z powodu czegoś, co wymyśliła sztuczna inteligencja, tak to właśnie działa. A jeśli doda to warstwę wiarygodnego zaprzeczenia pomiędzy funkcjonariuszem a jego nielegalnymi działaniami, jeszcze lepiej.
Nie tylko technologia najwyraźniej nie oszczędza komukolwiek dużo czasujest również nadużywany przez funkcjonariuszy organów ścigania w celu usprawiedliwienia swoich działań po fakcie. Ale jest lśniący i nowy, wydaje się elegancki i futurystyczny, więc oczywiście reporterzy od czasu do czasu decydują się na wykonanie w jego imieniu PR-owej pracy organów ścigania, przedstawiając niesamowicie omylną technologię jako ósmy cud policyjnego świata.
Czasami reporterzy zakopują diodę. Czasami ich redaktorzy decydują, że diodę należy zakopać na końcu nagłówka. Wydaje się, że tak właśnie jest w tym przypadku, gdzie doniesienia Myi Constantino nie są dokładnie tym, co jest reklamowane w oryginalnym nagłówku tego artykułu.
Jak można zauważyć przeglądając adres URL, bieżący nagłówek (zaktualizowany 1 stycznia) nie był oryginalny nagłówek. Wayback Machine opowiada prawdziwą historię. Ten artykuł został pierwotnie opublikowany 19 grudnia 2025 r Ten nagłówek:

Po nagłówku (który brzmiał: „Jak policja stanu Utah wykorzystuje sztuczną inteligencję, aby zapewnić bezpieczeństwo na ulicach”), natychmiast pojawiły się następujące akapity:

Oto bezpośredni cytat tych wiodących akapitów:
HEBER MIASTO, Utah — Sztuczna inteligencja pisząca raporty policyjne miała do wyjaśnienia na początku tego miesiąca, gdy stwierdziła, że funkcjonariusz Heber City zmienił się w żabę.
Jednak prawda o tej tak zwanej magicznej transformacji jest prosta.
„Oprogramowanie kamery osobistej i oprogramowanie do tworzenia raportów AI wychwyciły film odtwarzany w tle, którym był „Księżniczka i żaba”” sierż. Keel powiedział FOX 13 News. „Wtedy dowiedzieliśmy się, jak ważne jest korygowanie raportów generowanych przez sztuczną inteligencję”.
Na szczęście te akapity nadal pozostają w zaktualizowanym pościektóry zawiera teraz nagłówek, który ma o wiele więcej sensu:

Nagłówek (towarzyszy mu krótki film przedstawiający żabę drzewną) brzmi:
Rysiek, Ryś! Programy sztucznej inteligencji wykorzystywane przez funkcjonariusza policji w Heber City zamieniły się w żabę
Chociaż rozumiem, dlaczego mały serwis informacyjny (choć taki, który jest stowarzyszony z Foxem) może zdecydować się na miłe potraktowanie lokalnych gliniarzy, zamiast w nagłówku informować o awarii oprogramowania, to naprawdę tego nie robi. do przyjęcia. Domyślam się, że pierwotny nagłówek dotyczył utrzymania dostępu do funkcjonariuszy i urzędników. W pewnym momencie ktoś zdał sobie sprawę, że rzeczy wyszczególnione w pierwszych akapitach prawdopodobnie przyciągną więcej uwagi niż sucha recytacja argumentów AI gliniarza.
Ale nawet spóźniona zmiana nagłówka tak naprawdę nie poprawia tutaj niczego. W artykule nie ma nic, co by to potwierdzało Jak AI tworzy każdego bezpieczniejsze. W artykule wskazano także, że obecnie testowane są dwa różne programy AI (Code Four, opracowany przez parę 19-letnich byłych studentów MIT) oraz Draft One, będący częścią projektu Strategia integracji pionowej firmy Axon. To był produkt, który zmienił policjanta w żabę, co prawdopodobnie wyjaśnia, dlaczego podróż reportera (że tak powiem…) wymagała jedynie użycia sztucznej inteligencji Code Four.
Reporter był obecny przy fałszywym zatrzymaniu drogowym, które sztuczna inteligencja podsumowała później (najwyraźniej) w celu wykazania jego przydatności. Dziennikarz zwraca uwagę, że raport wygenerowany przez sztuczną inteligencję wymagał poprawek, ale przynajmniej nie zmienił żadnego z uczestników w postać inspirowaną Disneyem.
Biorąc to pod uwagę, nic nie wskazuje na to, że te produkty sprawią, że ulice będą „bezpieczniejsze”. Oto całość wypowiedzi sierż. Rick Keel z policji w Heber City:
Keel twierdzi, że jedną z głównych zalet jest to, że oprogramowanie oszczędza czas, ponieważ pisanie raportów zajmuje zwykle 1–2 godziny.
„Teraz oszczędzam około 6–8 godzin tygodniowo” – powiedział Keel. „Nie jestem zbyt obeznaną z technologią osobą, więc jest bardzo przyjazny dla użytkownika”.
Dając policjantom więcej wolnego czasu, nie czynimy ulic bezpieczniejszymi. Oznacza to po prostu, że mają więcej wolnego czasu. To nie zawsze jest dobre. Ze wszystkich rzeczy, które należy naprawić w zakresie amerykańskiej policji, pisanie raportów znajduje się dość daleko na liście. Tak naprawdę liczy się to, co zostanie zrobione z tym dodatkowym czasem. Dążenie do efektywności samej w sobie nie ma sensu w kontekście egzekwowania prawa. Z wypowiedzi tego funkcjonariusza PD rodzą się pytania, których reporter nigdy nie zadał, jak najważniejsze: co zrobić z zaoszczędzonym czasem? A jeśli coś nadal wymaga dużej aktywności człowieka, aby nie generować nonsensów, czy jest naprawdę lepsze od systemu, który zastępuje?
Jedno jest pewne: sztuczna inteligencja wykonująca niewdzięczną pracę polegającą na składaniu raportów policyjnych nigdy nie zapewni nikomu większego bezpieczeństwa. Wręcz przeciwnie, tylko zwiększy ryzyko, że czyjeś prawa zostaną naruszone. A ponieważ organy ścigania nie chcą być uczciwe co do zagrożeń, jakie to stwarza, oraz faktu, że wydaje się, że z tych dodatkowych wydatków skorzystają tylko funkcjonariusze, którzy nie lubią pisać dokumentów, nie należy powierzać im technologii, która ostatecznie tylko pogorszy złe strony amerykańskiej policji.
Zapisano pod: AI, awaria, halucynacje, policja miejska w Heberze, odpowiedzialność policji, Ricka Keela, Utah
Firmy: akson, kod czwarty