
z Jestem-sorry-can’t-rob-that, -Dave Wydział
W zeszłym miesiącu badanie BBC wykazało, że asystenci „AI” są straszne w dostarczaniu dokładnych streszczeń informacyjnych. Badanie BBC wykazało, że asystenci współczesnej modelu nauczania języka wprowadzili błędy faktyczne w 51 procentach czasu. 19 procent odpowiedzi wprowadziło niedokładne faktycznie „stwierdzenia, liczby i daty”, a 13 procent zmienionych cytatów przedmiotowych lub całkowicie wymyślone cytaty.
W tym miesiącu Badanie z Centrum Dziennikarstwa Digital Center stwierdził, że nowoczesna „AI” jest również okropna przy dokładnych cytatach. Naukowcy zadali większość nowoczesnych chatbotów „AI” podstawowe pytania dotyczące artykułów prasowych i stwierdzili, że zapewnili nieprawidłowe odpowiedzi na ponad 60 procent zapytań.
Należy zauważyć, że nie stawiali szczególnie uciążliwych wymagań ani nie prosili chatbotów interpretuj wszystko. Naukowcy losowo wybrali dziesięć artykułów od każdego wydawcy, a następnie poprosili Chatbota z różnych głównych firm o zidentyfikowanie nagłówka odpowiedniego artykułu, oryginalnego wydawcy, daty publikacji i adresu URL. Prowadzili szesnaścieset zapytań w ośmiu głównych chatbotach.
Niektórzy asystenci AI, jak Grok Elona Muska, byli szczególnie okropni, zapewniając nieprawidłowe odpowiedzi na 94 procent zapytań dotyczących artykułów prasowych. Naukowcy zabawnie odkryli, że chatboty premium byli rutynowo bardziej pewni siebie w fałszywych odpowiedzi:
„Ta sprzeczność wynika przede wszystkim z ich tendencji do zapewniania ostatecznych, ale błędnych odpowiedzi, a nie odmawiania bezpośrednich odpowiedzi na pytanie. Podstawowa troska wykracza poza błędy faktyczne chatbotów na ich autorytatywny ton konwersacyjny, co może utrudnić użytkownikom rozróżnienie między dokładnymi i niedokładnymi informacjami”.
Badanie wykazało również, że większość głównych chatbotów albo nie uwzględniła dokładnych cytatów do informacji, których używali, lub zapewniło niedokładne cytaty ogromną część czasu:
„Przetestowane przez nas generatywne narzędzia wyszukiwania miały powszechną tendencję do cytowania niewłaściwego artykułu. Na przykład Deepseek błędnie przyczyniła się do źródła fragmentów podanych w naszych zapytaniach 115 z 200 razy. Oznacza to, że treść wydawców prasowych najczęściej przypisywano niewłaściwemu źródłem”.
Tak więc badanie BBC wykazało, że współczesna sztuczna inteligencja jest do bani w generowaniu streszczeń informacyjnych (coś, co Apple się dowiedziało, kiedy to musiało Przenieś nagłówki wiadomości inteligencji Apple Intelligence offline, ponieważ system był niebezpiecznie niewiarygodny). Badanie TOW wykazało, że te same systemy śmierdzą przy cytatach i przekazują dokładnie, jak zebrasz swoje (często fałszywe) informacje o wiadomościach.
Nie oznacza to, że automatyzacja nie ma swoich zastosowań ani że z czasem się nie poprawi. Ale znowu ten poziom niezdarnych błędów nie jest tym, co społeczeństwo jest sprzedawane przez te firmy. Gigantyczne firmy, takie jak Google, Meta, Openai i Elon Musk ‘Nazi Emporium, sprzedały sztuczną inteligencję jako kilka szybkich oddechów i kolejne kilka miliardów od niesamowitych poziomów wrażliwości, ale Nie mogą wykonywać podstawowych zadań.
Firmy spędzają niedogotowany produkt na rynek i wyprzedzają swoje rzeczywiste możliwości zarabiania pieniędzy. Inne firmy w mediach spieszą się, aby przyjąć tę niedogotowaną automatyzację, aby nie poprawić jakości dziennikarstwa lub wydajności pracowników, ale w celu zmniejszenia zakrętów, oszczędzania pieniędzy, podważenia siły roboczej, aw przypadku punktów sprzedaży takich jak LA Times, aby umocnij i normalizuj uprzedzenie zamożnej własności.
W rezultacie wprowadzenie „AI” do naszego już zepsutych, obsesji na punkcie kliknięcia, opartego na zaangażowaniu amerykańskim branży dziennikarstwa, było gorącym bałaganem, w wyniku czego skutkiem jest Brak limitu niedokładnościoodles plagiatu i Więcej niż kiedykolwiek dla już przepracowanych i niedopłacanych ludzkich dziennikarzy i redaktorów. I to zanim dotrzesz do tych technologii Ostateczne zużycie energii i zasobów.
Kładź to na szczycie wspólnego wysiłku autorytaryści i władza korporacyjna w celu podważenia dziennikarstwa i poinformowania konsensusu do własnej korzyści finansoweji możesz zacząć widzieć tylko słaby zarys problemu. AI wymaga starannego wdrożenia w miarę opracowania załamań, a nie tej szalonej, bezmyślnej kolektywnej korytarza do koryta przez ludzi całkowicie bezinteresownych w szerszym wpływie na świat.
Złożone pod: aiW asystenciW automatyzacjaW stronniczośćW ChatbotyW cytatyW błędyW dziennikarstwoW głoska bezdźwięcznaW badania