
Rysunek Anna Głąbicka
Kto z was uważa, że będzie bystrzejszy od GPT-5?” – zapytał ze sceny Sam Altman podczas panelu zatytułowanego The Age of AI (Era AI), który odbył się w lutym na Berlińskim Uniwersytecie Technicznym. Na widowni zgromadziły się tuzy świata sztucznej inteligencji. Doktor habilitowany Piotr Sankowski relacjonował, że w odpowiedzi na pytanie Altmana rękę podniosły „chyba tylko dwie osoby”.
Oczywiście wprawne ucho wychwyci, że szef OpenAI użył słowa smarter (bystrzejszy, inteligentniejszy), a nie wiser (mądrzejszy). Owo rozróżnienie nie jest bez znaczenia. Inteligencja – według Wielkiego słownika języka polskiego PAN – to „zdolność nabywania nowych wiadomości i umiejętności oraz wykorzystywania ich w praktyce”. Z mądrością sprawa jest jednak bardziej skomplikowana. Stanfordzka encyklopedia filozofii opublikowała artykuł Sharon Ryan Wisdom, w którym filozofka zawarła ogólny przegląd różnych koncepcji mądrości, obejmujących poznanie, doświadczenie, trafne osądy, racjonalność, umiejętność zastosowania wiedzy w praktyce oraz – to bardzo ciekawe – epistemiczną pokorę, czyli zdolność krytycznego myślenia. Altman jest niewątpliwie na tyle bystry, by celowo użyć słowa smarter, a nie wiser, ale i tak smutkiem napawa wizja ludzkiej uległości wobec maszyny objawiająca się w dwóch podniesionych na widowni rękach.
Żeby być mądrym, ba, żeby być inteligentnym, potrzebujemy między innymi zdobywać wiedzę. Nasze życie toczy się tak szybko, że na co dzień nie zawsze potrafimy pilnować precyzji języka, w związku z czym często utożsamiamy mądrość z wiedzą, a wiedzę z dostępem do informacji. Wszystko to warto sobie jednak uporządkować wraz z nowym rokiem szkolnym, kiedy znowu zapewne usłyszymy, że szkoła powinna dziś uczyć przede wszystkim krytycznego myślenia, skoro w czasach sztucznej inteligencji i LLM-ów – dużych modeli językowych, do których zaliczamy wspomnianego Chata GPT – wiedza jest dostępna na wyciągnięcie ręki. Otóż, nic bardziej mylnego.
Kiedy szkolenia o włączaniu sztucznej inteligencji w proces edukacji szkolnej zaczęły się rozchodzić jak świeże bułeczki, zabawę popsuł zespół naukowców z MIT Media Lab, który w czerwcu tego roku opublikował wyniki badań, między innymi na temat wpływu używania Chata GPT na krytyczne myślenie. W eksperymencie wzięły udział osoby dorosłe, których zadaniem było napisanie w ciągu 20 minut eseju – tekstu wymagającego wiedzy, erudycji i krytycznego myślenia. Pierwsza grupa miała korzystać z pomocy Chata GPT, druga – z wyszukiwarek internetowych, trzecia zaś działała samodzielnie. Wyniki badania okazały się nie tyle łyżką dziegciu w beczce miodu technoentuzjastów, ile jego wielką chochlą, której nie sposób ukryć.
Mózgi osób piszących eseje z Chatem GPT nie starały się ani zapamiętać tego, co otrzymywały od sztucznej inteligencji, ani przetwarzać zdobytych informacji. Badani głównie przeklejali podawane im treści, wprowadzając jedynie minimalne poprawki. W efekcie nie integrowali informacji z tym, co już wiedzą; mieli więc problemy również z cytowaniem własnych tekstów, zapamiętywaniem ich, a nawet (sic!) rozpoznawaniem. Według autorów badania skutkiem długotrwałej pracy z Chatem GPT był tak zwany „dług poznawczy” (cognitive debt), charakteryzujący się osłabieniem umiejętności uczenia się i analitycznego myślenia. A zatem, wykonując twórczą pracę z Chatem GPT, nie tylko nie poszerzamy swojej wiedzy, ale wręcz wchodzimy w rolę prostego łącznika między nim a plikiem tekstowym. W tym kontekście pytanie Altmana o to, kto jest lepszy, brzmi i śmieszno, i straszno.
Nie wiem, czy chłopaki i dziewczyny z MIT czytają, co mówią ich koledzy z Uniwersytetu Stanforda, ale Andrew Ng – formalnie piastujący stanowisko adiunkta na tej uczelni – informatyk i biznesmen z obszaru AI, regularnie powtarza w swoich wystąpieniach, że jest przekonany, iż tak jak rewolucja przemysłowa uwolniła ludzi od „katorgi fizycznej”, tak sztuczna inteligencja ma potencjał uwolnić nas od „katorgi umysłowej” (dosłownie używa sformułowania mental drudgery – mentalna harówka). Nie chcąc być złośliwa, muszę zaznaczyć, że doktorowi Ng chodzi niewątpliwie o wykonywanie za nas czynności związanych z researchem i poruszaniem się po oceanie infośmieci, które wyprodukowaliśmy, aby zapewnić sobie czas na działania twórcze. Obawiam się jednak, że wobec trwającego procesu trenowania naszych umysłów do korzystania z prostej rozrywki ekranowej, polegającej na przyjmowaniu niewymagających treści w małych kolorowych porcjach, katorgą umysłową może się jawić właśnie to, co twórcze, czyli wymagające uruchomienia zasobów wiedzy, kreatywności i zanikającej umiejętności koncentracji.
Przeczytaj też: Czy AI tworzy sztukę?
Hua Hsu, autor tekstu What Happens After A.I. Destroys College Writing? (Co się stanie, gdy AI zniszczy pisanie na studiach?), przytacza dane z raportu (a jakże!) OpenAI, z którego wynika, że jedna na trzy osoby studiujące używa produktów tej firmy. Z kolei badania ośrodka Pew Research Center z 2024 roku pokazują, że w Stanach Zjednoczonych co czwarty uczeń w wieku 13–17 lat wykonuje z Chatem GPT zadania domowe. Hua Hsu przywołuje wiele wypowiedzi studentów wskazujących na to, że zdecydowanie chcą się uwolnić od katorgi umysłowej, jaką jest pisanie. Naukowiec stawia więc ważne pytanie: jaki jest dzisiaj sens studiowania, jeśli studenci, zamiast podejmować trud zdobywania wiedzy, będą – nazwijmy rzecz po imieniu – oszukiwać? Pytanie to można wręcz rozciągnąć na cały proces edukacji: czy jego celem jest uzyskanie świadectwa lub dyplomu, czy zdobycie wiedzy? A jeśli to pierwsze, to jakie znaczenie ma dyplom bez wiedzy?
Kilka miesięcy po zadaniu pytania o to, czy Chat GPT jest inteligentniejszy od człowieka, Altman, z charakterystycznym dla siebie łobuzerskim urokiem, uśmiecha się niczym kot z Alicji w Krainie Czarów i ostrzega w rozmowie z Business Insiderem, że nie należy ufać Chatowi GPT, a już w żadnym wypadku polegać na nim w kwestii życiowych wyborów. „Proszę, chyba nie braliście na poważnie tego smarter?” – zdaje się nam mówić papież sztucznej inteligencji. Pytanie, na ile poważnie można traktować słowa twórcy takiego produktu. Lubię tych chłopaków z big techu – są tacy nie za dorośli.
Piewcy zalania szkoły rozwiązaniami AI bronią się więc przed ostateczną kapitulacją hasłami głoszącymi, że szkoła ze sztuczną inteligencją ma sens, jeśli skupi się na nauce krytycznego myślenia. Z mitem tym popisowo rozprawił się jednak choćby doktor Tomasz Gajderowicz, wiceszef Instytutu Badań Edukacyjnych, podczas swojego wykładu na konferencji dla nauczycieli organizowanej przez Zakład Ubezpieczeń Społecznych. Wiem, że brzmi to egzotycznie, ale majowy event ZUS-u miał naprawdę znakomity line-up, a Gajderowicz, którego wystąpienie można znaleźć na YouTubie, zrobił takie show, że sprzedawałabym na niego bilety. Mówił, że jeśli chcemy myśleć krytycznie, potrzebujemy zasobu wiedzy w danej dziedzinie. Jako przykład polecił widowni proste ćwiczenie polegające na poddaniu krytycznemu namysłowi następującego zdania: „Ponieważ syncytyna 1 może reagować z syncytyną 2, w błonie śluzowej macicy może zachodzić homeostaza, zatem może powodować to bezpłodność”. Jak Wam poszło? I tu jest pies pogrzebany. Ludzkość zaczyna uważać zdobywanie wiedzy za „katorgę umysłową”, więc wyręcza się LLM-ami w stylu Chata GPT. Te zaś, jak wskazują badania, prowadzą do – najprościej mówiąc – upośledzenia umiejętności zdobywania wiedzy i uczenia się. A bez wiedzy nie potrafimy myśleć krytycznie. Witaj szkoło, witajcie nauczyciele!
Tak naprawdę wcale nie jest mi do śmiechu. Z roku na rok znacznie bardziej martwi mnie, że w dyskursie o edukacji coraz więcej mówimy o technologiach, sięgając po szkodliwe porównania. Wystarczy przypomnieć felieton profesora Jana Hartmana Kochajmy TikToka!, który ukazał się na łamach „Polityki” w maju ubiegłego roku. Filozof pisał, że „nietrudno skomponować zestaw filmów na TikToku, przy których nagrania jeden do jednego z lekcji w przyzwoitej szkole wyglądać będą żałośnie. Jeśli naprawdę porównywać jakość, to w zasadzie nie ma czego porównywać”. Tego typu opinie rodzą fałszywe przekonanie o tym, czym jest szkoła. Rola nauczyciela nie polega na konkurowaniu o uwagę ucznia z influencerami ani robieniu z lekcji TikToka. Mamy wystarczająco wiele dowodów na to, że łatwość oferowana przez nowe technologie prowadzi zbyt wiele osób do takiego używania sztucznej inteligencji, które osłabia kompetencje uczenia się, umiejętność mierzenia się z nudą, odroczoną gratyfikacją i wieloma mało atrakcyjnymi „katorgami umysłowymi”, z których – uwaga! – składa się życie pozaekranowe.
Jakie społeczeństwo stworzymy więc, jeśli zamiast do pozyskiwania wiedzy i mądrości szkoła będzie przygotowywać do zdobywania informacji za pomocą nowych technologii? Mam poważne obawy, że nie będzie ono ani smarter, ani wiser.
Masz przed sobą otwartą treść, którą udostępniamy w ramach promocji „Pisma”. Odkryj pozostałe treści z magazynu, także w wersji audio. Jeśli nie masz prenumeraty lub dostępu online – zarejestruj się i wykup dostęp.
Fundację Pismo, wydawcę magazynu „Pismo”, wspiera Orange.
