30 listopada 2022 roku OpenAI wypuściło na świat ChatGPT.
Sześć dni później chatbot miał już milion (realnych) użytkowników.
W dwa miesiące 100 mln.
W ciągu kilku miesięcy uczelnie na całym świecie zaczęły alarmować o problemach: pojawiły się kwestie anulowanie prac pisemnych, testy sprawdzające kto jest autorem tekstu, egzaminy bez laptopów.
Ale nic nie powstrzymało fali technologicznych zmian.
Pisanie akademickie, które przez dekady było uznawane za podstawę edukacji humanistycznej, zaczęło być wypierane przez algorytmy językowe.
Hua Hsu w swoim znakomitym tekście dla The New Yorker pokazuje, że nie chodzi już o sporadyczne „oszustwa” lecz o nowy ekosystem edukacyjny, w którym studenci stali się “menedżerami projektów”, a AI ich ghostwriterem, asystentem, korektorem i terapeutą w jednym.
Weźmy Alexa, studenta NYU, który (jak sam przyznaje) używa AI do wszystkiego. Claude do researchu, DeepSeek do wyjaśnień, Gemini do grafiki, ChatGPT do wszystkiego innego.
Gdy autor umawiał się z nim na spotkanie, Alex skorzystał z AI, by napisać odpowiedź.
Gdy pisał esej o wystawie w muzeum, wrzucił zdjęcia i opisy do Claude’a, a potem poprosił o wygenerowanie tekstu zgodnego z instrukcją wykładowcy.
Praca została oceniona na A–, choć sam student przyznał, że nie potrafiłby odpowiedzieć na pytania dotyczące jej treści.
Większość energii włożył w poprawianie promptów, nie w myślenie. W jego słowach pobrzmiewa brutalna szczerość nowej ery: „Chcę robić jak najmniej, bo to klasa, którą mam gdzieś”.
Takich jak on jest wielu. Wg raportu OpenAI z 2024 roku, jedna trzecia amerykańskich studentów korzysta z jego produktów.
Dane Pew Research Center pokazują, że wśród nastolatków (13–17 lat) 25% używa ChatGPT do pracy szkolnej czyli dwa razy więcej niż rok wcześniej.
A to zapewne i tak zaniżone liczby. Przesiąknięte Googlem, Grammarly i narzędziami automatyzującymi tekst Pokolenie Z traktuje generatywne AI jako naturalny kolejny krok.
„To nie różni się od wyszukiwarki” mówi Eugene, drugi student NYU, który korzysta z AI do obliczeń, ale jeszcze nie ufa jej przy pisaniu. Na razie.
W tej opowieści nie ma złych intencji.
Nie ma też poczucia winy. „To oszustwo, ale bez ofiar” mówi jeden z bohaterów tekstu.
Studenci nie kopiują z cudzych prac ale współtworzą tekst z narzędziem, którego nikt nie nauczył ich kwestionować.
Nie ma moralnego dylematu, który wiązał się z zamówieniem pracy przez internet. Jest za to logika: nie mam czasu, mam inne priorytety, po co marnować energię na coś, co nie ma znaczenia?
Uczelnie w większości już skapitulowały. O ile jeszcze w 2023 roku próbowano zakazywać AI lub stosować software do wykrywania AI (np. GPTZero, Copyleaks, Originality.ai), o tyle w 2025 dominującym trendem jest już integracja.
Arizona State University, Oxford i Wharton School zaczęły testować ChatGPT Edu – wersję AI stworzoną z myślą o edukacji.
OpenAI zapowiedziało właśnie, że każdy student w USA może dostać „osobistego asystenta AI” na cały okres studiów. AI staje się nie tyle wsparciem, co nową infrastrukturą.
Tyle że nie wszędzie da się to wdrożyć bezkonfliktowo. W dziedzinach STEM AI sprawdza się jako narzędzie wspomagające – tłumaczy pojęcia, automatyzuje obliczenia, generuje dane.
Ale w naukach humanistycznych (zwłaszcza tam, gdzie stawką jest interpretacja, oryginalność i styl) korzystania z AI działa zupełnie inaczej.
Pisanie eseju nie jest tylko wyrazem wiedzy.
To akt twórczy.
Proces.
Trening (czasem bolesny).
I właśnie ten proces AI całkowicie pomija.
Dlatego niektórzy akademicy się buntują.
Corey Robin, politolog z Brooklyn College, całkowicie zrezygnował z esejów pisanych w domu (po tym jak jego córka, licealistka, wygenerowała z pomocą ChatGPT tekst dorównujący poziomem pracy studenckiej).
Zamiast tego zleca studentom egzaminy pisemne na miejscu, z analizy przeczytanych fragmentów.
Harry Stecopoulos z University of Iowa zaczyna każdy semestr od 200 słownej analizy ręcznie napisanej w klasie. „To stresuje ich, ale też pozwala nam poznać ich głos” – mówi.
I rzeczywiście (jak pokazują badania neurologiczne) pisanie odręczne aktywuje inne części mózgu niż pisanie na klawiaturze.
Jednak nie wszyscy akademicy chcą cofać się do czasów pióra i papieru. Dan Melzer z UC Davis prowadzi warsztaty, w których uczy studentów traktować AI jako partnera w procesie redakcyjnym.
Praca nad tekstem to nie pojedynczy strzał, ale sekwencja: szkic, komentarz AI, poprawki, refleksja, zmiana.
Według Melzera, obecny model nauczania – oparty na sztywnych strukturach (np. pięciopunktowym eseju złożonym z wstępu, trzech akapitów i zakończenia) pochodzi z epoki testów standaryzowanych i uczy „złej” pisarskiej rutyny.
W takich warunkach AI nie tylko nie przeszkadza, co wręcz odciąża studentów.
Ale nawet jeśli AI rzeczywiście może pomóc, to pytanie brzmi: co tracimy?
Według badania OECD z 2024 roku, umiejętności matematyczne i czytania wśród dorosłych w 30 krajach spadają nieprzerwanie od 2012 roku.
Autorzy sugerują, że winna może być forma konsumpcji treści dominacja krótkich, przerywanych przekazów. Estonia – jedna z nielicznych pozytywnych wyjątków ogłosiła właśnie plan, w którym AI ma wspierać naukę poprzez rozmowy i egzaminowanie ustne, a nie przez pisanie wypracowań.
I to chyba mówi wszystko: AI nie tyle niszczy pisanie, co spycha je na margines.
To, co kiedyś było źródłem frustracji – pisanie, które boli, męczy czy wymaga może okazać się luksusem.
Może właśnie dlatego ci nieliczni, którzy jeszcze piszą samodzielnie, zaczynają traktować to jako wartość samą w sobie.
„Nauczyłem się więcej, rozwinąłem się jako człowiek” – mówi Kevin z Syracuse, który używa AI tylko do tłumaczeń z arabskiego. „Ale czasem się zastanawiam: czy warto było? Inni mieli więcej wolnego, a ja tylko utrudniłem sobie życie.”
Autor eseju, Hua Hsu, nie daje prostych odpowiedzi. Opisuje siebie jako nauczyciela, który od 30 lat przebywa na kampusach.
Widzi, jak bardzo zmienili się studenci: są zmęczeni, stali się bardziej pragmatyczni i introwertyczni.
Są zmęczeni systemem, który najpierw kazał im uczyć się programowania, by potem powiedzieć, że AI i tak napisze kod za nich.
To nie są osoby leniwe ale “sprytni menedżerowie własnego czasu”, którzy optymalizują życie jak algorytm.
A pisanie?
Jeśli nie przekłada się na punktację, sukces ani karierę to po co to robić?
Na końcu autor przyznaje: „A.I. pozwala każdemu poczuć się ekspertem. Ale to ryzyko, wątpliwość i porażka czynią nas ludźmi.”
I przypomina studentom, że jego zadaniem jest jeszcze przez chwilę musieć czytać to, co napiszą.
Więc może warto napisać coś naprawdę swojego.
Artur Kurasiński
Fajny tekst? Chcesz mnie wesprzeć w tworzeniu kolejnych?
WARSZTAT Z ABSOLUTNYCH PODSTAW GENAI!
Pokażemy Ci, że nauka AI może być tak prosta jak zabawa klockami LEGO. Dowiesz się jak korzystać z AI w życiu codziennym i biznesie.
Przekażemy Ci tylko użyteczną i praktyczną wiedzę! Zero teorii - tylko praktyka i konkrety!
Kto będzie Cię uczył? Artur i Przemek.
Zapisz się na waitlistę naszego warsztatu - dam znać, kiedy wystartujemy!
NEWSY WARTE TWOJEJ UWAGI:
REFLEKSJE Z WNĘTRZA OPENAI
Calvin French‑Owen opisuje OpenAI jako miejsce intensywnego tempa pracy, bez formalnych planów, z silnym naciskiem na działanie i szybkie prototypowanie. Mimo chaosu i problemów ze skalą, podkreśla, że zespół kieruje się autentyczną misją – choć sam odszedł po 14 miesiącach.
GOOGLE WCHODZI DO HOLLYWOOD
Google uruchomił inicjatywę „100 Zeros” czyli wieloletnią współpracę z Range Media Partners w celu sfinansowania i współprodukowania filmów i seriali z “technologicznym przesłaniem”. Celem jest promowanie AI, spatial computing i narzędzi takich jak Gemini w popkulturze przy wsparciu Hollywood, a nie przez YouTube.
POLSKI GAMEFOUND PRZEJMUJE INDIEGOGO!
Gamefound przejmuje Indiegogo, łącząc 38‑milionową społeczność z platformą będącą liderem platformy do gier planszowych, przy utrzymaniu osobnych serwisów. Indiegogo wprowadza opłatę 5 % bez dodatkowych kosztów promocyjnych oraz system napiwków przekazywany bezpośrednio twórcom, co sprawia, że warunki są korzystniejsze dla społeczności theverge.com.
MISTRAL POLICZYŁ ILE ZUŻYŁ WODY NA TRENOWANIE AI
Mistral AI opublikowała pierwszą kompleksową analizę cyklu życia modelu Mistral Large 2, demonstrując wpływ na środowisko — od treningu (20,4 kt CO₂e, 281 000 m³ wody, 660 kg Sb eq) po marginalne skutki inference (1,14 g CO₂e, 45 ml wody). Firma proponuje transparentność i audyty zgodne ze standardami międzynarodowymi, aspirując do ustanowienia globalnego benchmarku środowiskowego w branży AI.
CHINA TWORZY SIEC SPRZEDAŻY NADMIARU MOCY OBLICZENIOWEJ
Chiny planują utworzenie krajowego, państwowego systemu chmurowego, który pozwoli sprzedawać niewykorzystaną moc obliczeniową z około 7 000 centrów danych powstałych w ramach programu “Eastern Data, Western Computing”. Inicjatywa ma przeciwdziałać niskiej (20–30 %) wykorzystania mocy i kontroli sektorowi, ale napotyka na przeszkody: różnorodne lokalizacje, opóźnienia w transmisji danych i niekompatybilność chipów nastręczają wyzwań technologicznych.
TRUMP UDERZA W "WOKE A.I."
Amerykańska prawica przeniosła swoją kampanię przeciwko cenzurze z mediów społecznościowych na sztuczną inteligencję, zarzucając twórcom ChatGPT, Claude’a czy Gemini polityczne uprzedzenia. Trump ogłosił rozporządzenie wykonawcze wymuszające „ideologiczną neutralność” w modelach A.I., grożąc utratą kontraktów rządowych, co zdaniem krytyków narusza wolność słowa i powiela wcześniejsze taktyki nacisku na firmy technologiczne.