
z ale-to-dobre-rzeczy-działa-zbyt-dobrze! dział
Chociaż każda iteracja stwarza szansę na ulepszenia, istnieje kilka bardzo realnych powodów, dla których technologia rozpoznawania twarzy będzie nieco stagnować. I dlatego jest to największy rynek dla tej technologii: organy ścigania.
W 2019 roku Narodowy Instytut Nauki i Technologii Stanów Zjednoczonych zbadał 189 różnych algorytmów rozpoznawania twarzy. Wyniki były rozstrzygające: każdy z nich radził sobie gorzej, gdy został poproszony o „rozpoznanie” czegokolwiek innego niż białe męskie twarze. Azjatów i Afroamerykanów było więcej niż 100 razy bardziej prawdopodobne, że zostaną błędnie zidentyfikowani przez techników. Podczas gdy w niektórych przypadkach było trochę lepiej, średnia dla wszystkich była złą wiadomością dla osób, które przeszły już przez dziesięciolecia stronniczej policji.
Dodanie technologii do istniejących uprzedzeń pozwala jedynie szybciej pogłębiać nierówności. Na to zwrócono uwagę niecały rok później do Parlamentu Europejskiego. Umożliwienie policjantom kontrolowania zarówno danych wejściowych, jak i wyjściowych oznacza po prostu, że systemy będą generować wiarygodne zaprzeczenia rasistowskiej policji, zamiast tworzyć nieco bardziej wyrównane szanse.
Technologia rozpoznawania twarzy nie tylko ma wbudowany problem z uprzedzeniami, ale wydaje się również mieć problem z rozpoznawaniem twarzy, niezależnie od ich koloru. Policja w Wielkiej Brytanii to widziała zdarza się to wielokrotniezbieranie się alarmujący odsetek wyników fałszywie dodatnich podczas wdrożeń technicznych. Pomimo tych niepowodzeń (i niezauważonej drugiej strony fałszywych alarmów: fałszywych wyników negatywnych) rząd Wielkiej Brytanii nadal się rozwijało programy do rozpoznawania twarzy.
Brytyjska wersja NIST, Krajowe Laboratorium Fizyczne (NPL), przeprowadziło własne badanie technologii wykorzystywanej obecnie przez brytyjskie organy ścigania. Jego wnioski nie były równie zaskakujące:
Siły brytyjskie korzystają z krajowej bazy danych policji (PND) w celu przeprowadzenia retrospektywy rozpoznawanie twarzy wyszukiwania, podczas których „próbny obraz” podejrzanego jest porównywany z bazą danych zawierającą ponad 19 milionów zdjęć z aresztu w celu znalezienia potencjalnych dopasowań.
Ministerstwo Spraw Wewnętrznych przyznało to w zeszłym tygodniu technologia była stronniczapo przeglądzie przeprowadzonym przez Krajowe Laboratorium Fizyczne (NPL) wykazało, że w znacznie większym stopniu błędnie identyfikowało osoby czarnoskóre i Azjatki oraz kobiety niż białych mężczyzn, i stwierdziło, że „podjęło działania zgodnie z ustaleniami”.
Ministerstwo Spraw Wewnętrznych przekazało te ustalenia organom ścigania we wrześniu ubiegłego roku. Rada Szefów Policji Krajowej (NPCC) zareagowała najlepiej, jak mogła: nakazała wszystkim użytkownikom technologii zbadanej przez NPL dostosowanie ustawień czułości w celu podniesienia „próg ufności” dla dopasowań. Nakaz ten miał przeciwdziałać (do pewnego stopnia) fałszywym alarmom generowanym przez niezdolność technologii do dokładnego dopasowania obrazów przedstawiających kobiety, osoby czarnoskóre i praktycznie każdą osobę dowolnej rasy w wieku poniżej 40 lat. (Uff. To duża porażka).
Cóż, to najwyraźniej rozgniewało wielu brytyjskich funkcjonariuszy i przełożonych. Przy podniesionym progu mniej dopasowań (i prawdopodobnie mniej błędny mecze) były generowane. Zamiast uznać, że jest to część niezbędnego kompromisu potrzebnego do zrekompensowania wadliwej technologii, postanowili się złościć, że nie otrzymali wystarczającej liczby fałszywych alarmów, na których mogliby podjąć działania.
Decyzję tę zmieniono w następnym miesiącu po tym, jak siły zbrojne złożyły skargę, że system generuje mniej „tropów dochodzeniowych”. Dokumenty NPCC pokazują, że wyższy próg zmniejszył liczbę wyszukiwań skutkujących potencjalnymi dopasowaniami z 56% do 14%.
Tak, NPCC wycofało tę decyzję, ponieważ funkcjonariusze nie otrzymywali tak wielu dopasowań, jak byli przyzwyczajeni. Jasne, generowane przez nich dopasowania były prawdopodobnie znacznie lepsze niż te, które generowali w przeszłości, ale wydaje się, że dokładność nie ma znaczenia dla brytyjskich organów ścigania. Wspólnie odepchnęli to wystarczająco mocno, aby odwrócić ten porządek, umożliwiając brytyjskim agencjom ponowne wykorzystanie znanych, zbadanych naukowo ograniczeń używanej przez nie technologii rozpoznawania twarzy. Przedkładali ilość nad jakość – a to w naturalny sposób sprzyja stronniczym wysiłkom policji, w które wolą angażować się ci funkcjonariusze.
Komendant policji Amanda Blakeman, przewodnicząca NPCC, twierdzi, że doszło do kompromisu, który ostatecznie przyniesie korzyści społeczeństwu, nawet jeśli będzie to oznaczać, że więcej z nich zostanie fałszywie aresztowanych, a wzrost liczby fałszywych negatywów będzie oznaczać, że więcej przestępców ucieknie przed wymiarem sprawiedliwości.
„Decyzja o powrocie do pierwotnego progu algorytmu nie została podjęta lekko i została podjęta, aby jak najlepiej chronić społeczeństwo przed osobami, które mogą wyrządzić krzywdę, co ilustruje równowagę, jaką należy zachować, korzystając z rozpoznawania twarzy przez policję”.
Blakeman upiera się, że aby pokonać znane ograniczenia technologii, wystarczy dodatkowe szkolenie. Każdy, kto kiedykolwiek uczestniczył w obowiązkowym szkoleniu, wie, że to po prostu nieprawda. Oznacza to tylko, że grupa ludzi będzie drzemać lub marzyć podczas tych sesji i machać ołówkiem w dowolnej formie, która im zostanie nadana, co rzekomo „potwierdzi”, że cały trening, na który nigdy nie zwracali uwagi, został wykorzystany. Blakeman powiedział nawet, że część tych szkoleń zostanie „wznowiona”, co jasno pokazuje, że nikt nie zwracał na nie uwagi Pierwszy czas dookoła.
To cholernie niesamowite. W obliczu faktu, że ich technologia jest wadliwa, brytyjskie organy ścigania zażądały przywrócenia wszystkiego do całkowicie zepsutej „normalności”, której pozwolono nadużywać od momentu powstania tej technologii. A teraz, gdy wszystko wyszło na jaw, rzecznicy policji wracają do udawania, że organy ścigania mają cokolwiek wspólnego z kompetentnym i ostrożnym egzekwowaniem prawa.
Zapisano pod: stronnicza policja, rozpoznawanie twarzy, fałszywe alarmy, ministerstwo spraw wewnętrznych, krajowe laboratorium fizyczne, Krajowa Rada Szefów Policji, Wielka Brytania