
z czy ktoś może-zapytać-innego-o-zachęty dział
Pisałem o tym jakieś półtora roku temu doświadczenia mojego dziecka z narzędziem do sprawdzania AI który został preinstalowany na Chromebooku wydanym przez szkołę. Zadanie polegało na napisaniu eseju o Kurcie Vonnegucie Harrisona Bergerona– opowieść o dystopijnym społeczeństwie, które egzekwuje „równość”, utrudniając każdemu, kto się wyróżnia – a narzędzie do wykrywania sztucznej inteligencji oznaczyło esej jako „napisany w 18% przez sztuczną inteligencję”. Sprawca? Używając słowa „pozbawiony”. Kiedy słowo zostało zamienione na „bez”, wynik w magiczny sposób spadł do 0%.
Nie umknęła mi ironia bycia zmuszonym do stłumienia eseju na temat historii ostrzegającej przed przymusowym tłumieniem doskonałości. Albo o moim dziecku, które spędziło frustrujące popołudnie na usuwaniu słów i testowaniu pojedynczych zdań, próbując dowiedzieć się, jaką niewidzialną pułapkę zastawił algorytm. Lekcja, którą dziecko przyswoiło, była jasna: pisz mniej kreatywnie, używaj prostszego słownictwa i nie brzmij zbyt dobrze, bo dobre brzmienie jest teraz podejrzane.
Martwiłem się wtedy, że problem ten stanie się znacznie większy. Że strach przed „oszukiwaniem” sztucznej inteligencji stworzy kulturę, która aktywnie karze dobre pisanie i popycha uczniów w stronę przeciętności. Miałem nadzieję, że się co do tego mylę.
Okazuje się… nie myliłem się.
Dadland Maye, instruktor pisania, który wykładał na wielu uniwersytetach opublikował artykuł w Kronice Szkolnictwa Wyższego dokumentując dokładnie, jak to się działo w jego klasach – i jest jeszcze gorzej niż to, co opisałem. Ponieważ system wykrywania sztucznej inteligencji nie tylko nakłonił uczniów do gorszego pisania. Aktywnie naciskał na studentów, którzy nigdy nie korzystałem ze sztucznej inteligencji zacząć z niego korzystać.
Tej jesieni pewna studentka powiedziała mi, że zaczęła używać generatywnej sztucznej inteligencji dopiero po tym, jak dowiedziała się, że według plotek cechy stylistyczne, takie jak kreski, uruchamiają detektory sztucznej inteligencji. Aby uchronić się przed oflagowaniem, zaczęła przeglądać swoje teksty za pomocą narzędzi sztucznej inteligencji, aby zobaczyć, jak zostanie to zarejestrowane.
Studentka, która pisała własną pracę, własnymi słowami, zaczęła korzystać z narzędzi AI defensywnie– nie po to, żeby oszukiwać, ale żeby mieć pewność, że jej własne teksty nie zostaną oskarżone o oszustwo. Narzędzie zaprojektowane do zapobiegania używaniu sztucznej inteligencji stało się powodem, dla którego zaczęła używać sztucznej inteligencji.
To jest Efekt Kobry w najczystszej postaci. Brytyjski rząd kolonialny w Indiach zaoferował nagrodę za martwe kobry, aby zmniejszyć populację kobr. Ludzie zaczęli hodować kobry, aby odebrać nagrodę. Kiedy rząd zarzucił program, hodowcy wypuścili swoje obecnie bezwartościowe kobry, co pogorszyło problem niż wcześniej. Narzędzia do wykrywania AI to nasza nagroda za kobry. Miały one ograniczyć wykorzystanie sztucznej inteligencji. Zamiast tego zachęcają do tego.
A to wykracza daleko poza doświadczenie jednego ucznia. Maye opisuje wzór rozprzestrzeniający się w jego klasach:
Jeden z uczniów, native speaker języka angielskiego, był od dawna chwalony za pisanie powyżej poziomu klasy. W tym semestrze przeniesienie do nowej uczelni wzbudziło nowy niepokój. Profesorowie niezaznajomieni z jej twórczością nie mogliby się dowiedzieć, że zasłużono na jej pewny siebie głos. Zwróciła się do Google Gemini ze stanowczym pytaniem na temat tego, co budzi niepokój instruktorów w college’u. To dochodzenie otworzyło drzwi. Dowiedziała się, jak podpowiedzi kształtują wyniki, kiedy pewne wzorce zdań wymagają analizy i w jaki sposób pewność stylistyczna budzi wątpliwości. Narzędzie stało się sposobem na uzupełnienie zajęć i wyjaśnienie trudnego materiału. Mimo to praktyka wydawała się niewłaściwa. „Czuję się, jakbym oszukiwała” – powiedziała mi, chociaż impuls, który ją do tego sprowadził, był defensywny.
Studentka chwalona przez lata za wyjątkową pisarkę czuje się teraz oszustką, bo musiała nauczyć się, jak działa wykrywanie sztucznej inteligencji, aby uchronić się przed fałszywym oskarżeniem. Aparat nadzoru zmienił talent pisarski w ciężar.
Potem jest to:
Po oskarżeniu o wykorzystanie sztucznej inteligencji na innym kursie przyszedł do mnie inny student. Oskarżenie było bezpodstawne, ale gazeta nie została oceniona. To, co nastąpiło później, zaniepokoiło mnie. „Czuję, że muszę być na bieżąco z technologią, która postawiła mnie w takiej sytuacji” – powiedziała studentka – „aby móc się przed tym uchronić”. Ochrona przybrała formę zanurzenia. Wiele subskrypcji AI. Dokładne badanie sposobu działania wykrywania. Biegłość w posługiwaniu się narzędziami, których uczeń nigdy nie planował używać. Doświadczenie zakończyło się decyzją. Inni profesorowie nie zostaliby o tym poinformowani. „Nie sądzę, że będą mnie postrzegać przychylnie”.
Fałszywe oskarżenie doprowadziło do śmierci studenta subskrypcję wielu usług AI oraz badanie sposobu działania systemów wykrywania. Nie dlatego, że chcieli oszukać, ale dlatego, że czuli, że nie mają innej możliwości samoobrony. A potem postanowili milczeć na ten temat, ponieważ mówienie profesorom o ich umiejętnościach w zakresie sztucznej inteligencji wzbudziłoby tylko większe podejrzenia.
Słuchaj, rozumiem: niektórzy studenci są absolutnie wykorzystywanie sztucznej inteligencji do oszukiwania i jest to prawdziwy problem, z którym muszą się uporać nauczyciele. Jednak podejście skupiające się na wykrywaniu stworzyło strukturę zachęt, która jest niemal całkowicie odwrócona. Uczniowie, którzy nie korzystają ze sztucznej inteligencji, są karani za zbyt dobre pisanie. Uczniowie fałszywie oskarżeni dowiadują się, że jedyną obroną jest biegłość w posługiwaniu się narzędziami, o których używanie są oskarżani. A uczniowie są na tyle bystrzy, żeby faktycznie oszukiwać? To oni są najlepiej wyposażeni do oszukania detektorów. Te narzędzia nie wyłapują oszustów – one radykalizują uczciwe dzieci.
Jak wyjaśnia Maye, ta dynamika jest szczególnie brutalna w instytucjach o otwartym dostępie, takich jak CUNY, gdzie studenci już teraz borykają się z ogromną presją:
W CUNY wielu studentów pracuje od 20 do 40 godzin tygodniowo. Wiele z nich jest wielojęzycznych. Prawie na każdym kursie spotykają się z inną polityką sztucznej inteligencji. Kiedy jeden profesor całkowicie zakazuje sztucznej inteligencji, a inny zachęca do jej stosowania, uczniowie uczą się milczeć, zamiast ryzykować pomyłkę. Na nich spada ciężar niespójności, który przybiera konkretną formę: czasu, rewizji i samonadzoru. Jeden z uczniów opisał, jak spędzał godziny na przeformułowywaniu zdań, które detektory oznaczyły jako wygenerowane przez sztuczną inteligencję, mimo że każde słowo było oryginalne. „Poprawiam i poprawiam” – powiedział uczeń. „To zajmuje zbyt dużo czasu”.
Podobnie jak moje dziecko i szkolny moduł sprawdzający sztuczną inteligencję, uczennica Maye spędziła mnóstwo zmarnowanego czasu na „poprawianiu”, aby uniknąć oznaczenia.
Studenci spędzają godziny na przepisywaniu własnych, oryginalnych prac — pracuj nad tym Oni napisał – ponieważ algorytm uznał, że brzmi to zbyt podobnie do maszyny. To czas zabrany na naukę, pracę, opiekę nad rodziną lub, no wiesz, na naukę lepszego pisania.
Nauka powtarzania jest kluczową częścią nauki pisania. Należy jednak wprowadzić poprawki, aby służyły intencji tekstu. Nie po to, żeby uspokoić szkicowego sprawdzającego bota.
Maye tak dobrze podkreśla, że szkody wykraczają poza fałszywe alarmy i stratę czasu. Głębszym problemem jest to, jakie są te narzędzia uczyć uczniowie o pisaniu:
Narzędzia do wykrywania komunikują – nawet jeśli instruktorzy tego nie robią – że pisanie jest czynnością, którą należy zarządzać, a nie praktyką, którą należy rozwijać. Uczniowie dowiadują się, że styl może im się przeciwstawić, a płynność wypowiedzi budzi podejrzenia.
Uczymy całe pokolenie uczniów, że celem pisania jest brzmieć wystarczająco niepozornie! Nie po to, aby wyrazić oryginalną myśl, rozwinąć argumentację, znaleźć swój głos lub komunikować się z jasnością i mocą, ale po to, aby stworzyć tekst na tyle nijaki, że model statystyczny go nie oznaczy.
Słowo „pozbawiony” jest zbyt ryzykowne. Kreski Em są podejrzane. Pewna siebie proza to czerwona flaga.
Mojego dzieciaka Harrisona Bergerona Z perspektywy czasu doświadczenie było doskonałym zapowiedzią tego wszystkiego. Vonnegut ostrzegał przed społeczeństwem, które sprowadza wszystkich do najniższego wspólnego mianownika, utrudniając każdemu, kto wykazuje zdolności. I oto jesteśmy, z narzędziami do wykrywania sztucznej inteligencji, które pełnią rolę ogólnego handicapera w pisaniu uczniów, karaniu płynności, karaniu słownictwa i szkoleniu uczniów, aby brzmieli jak najbardziej przeciętnie, aby uniknąć uruchomienia algorytmu, który nie jest w stanie nawet odróżnić przemyślanego eseju od wyniku ChatGPT.
Maye w końcu zrobił jedyną rozsądną rzecz: przestał grać.
W połowie semestru przestałem wymagać od uczniów ujawniania, w jaki sposób korzystają ze sztucznej inteligencji. W moim programie nauczania wymagano przejrzystości, lecz oczekiwania stały się niespójne. Granica między korzystaniem ze sztucznej inteligencji a poruszaniem się po Internecie zatarła się nie do poznania. Poproszenie uczniów o dokumentowanie każdego spotkania z tą technologią zamieniłoby pisanie w ćwiczenie księgowe. Zmieniłem podejście. Powiedziałem uczniom, że mogą wykorzystywać sztuczną inteligencję do badań i tworzenia szkiców, podczas gdy pisanie musi pozostać ich własnym zadaniem. Nauczyłem ich, jak odpowiedzialnie podpowiadać i rozpoznawać, kiedy narzędzie zaczyna zastępować ich sposób myślenia.
Zamiast przyjąć podejście oparte na poczuciu winy, przyjął takie, które uwzględnia rzeczywistość i koncentruje się na tym, co będzie najlepsze dla środowiska uczenia się: naucz uczniów, aby używali narzędzi właściwie, a nie na skróty, i nie zaczynaj od pozycji podejrzeń.
Atmosfera w mojej klasie uległa zmianie. Studenci podchodzili do mnie po zajęciach i pytali, jak dobrze korzystać z tych narzędzi. Chcieliśmy wiedzieć, jak zachęcać do badań bez kopiowania wyników. Inny zapytał, jak rozpoznać, kiedy podsumowanie zbytnio odbiega od źródła. Rozmowy te miały charakter pedagogiczny. Stało się to możliwe dopiero wtedy, gdy wykorzystanie sztucznej inteligencji przestało być problemem ujawniania informacji, a zaczęło funkcjonować jako przedmiot nauczania.
Po zniesieniu reżimu nadzoru uczniowie mogli faktycznie to zrobić uczyć się. Zadawali autentyczne pytania dotyczące tego, jak skutecznie i etycznie korzystać z narzędzi. Zajęli się technologią jako tematem wartym zrozumienia, a nie polem minowym, po którym można się poruszać. Relacja nauczyciel-uczeń zmieniła się z kontradyktoryjnej na edukacyjną, i na tym właśnie polega istota szkoły.
To zdanie, którego używa Maye: „te rozmowy miały charakter pedagogiczny”, wciąż siedzi mi w głowie. Strach przed sztuczną inteligencją osłabiającą nauczanie uniemożliwiał nauczanie. Pokonanie tego strachu przywróciło pedagogikę. Niesamowity.
Ten artykuł powinien być lekturą obowiązkową dla każdego nauczyciela, który uważa, że „złapanie” uczniów za pomocą sztucznej inteligencji jest najważniejsze.
Jak Maye odkryła na podstawie bolesnych doświadczeń, odpowiedzią jest zaprzestanie traktowania sztucznej inteligencji jako problemu policji i rozpoczęcie traktowania jej jako problemu edukacyjnego. Naucz uczniów pisać. Naucz ich krytycznego myślenia o narzędziach AI. Naucz je, kiedy te narzędzia są pomocne, kiedy są szkodliwe, a kiedy są oparciem. I na miłość wszystkiego, co dobre, przestań wdrażać narzędzia do wykrywania, które karzą dobrych pisarzy i popychają wszystkich w stronę nijakiego, algorytmicznego środka.
Całkiem dosłownie ograniczamy pisanie naszych uczniów, aby zadowolić maszynę, która nie widzi różnicy. Vonnegut miałby niezły dzień.
Zapisano pod: AI, wykrywanie AI, oszukiwanie, Dadland Maye, studenci