Literatura to nie jest dobro naturalne
Marcin Wilkowski
Głos Marcina Wilkowskiego w debacie „Granice literatury”.
strona debaty
Gdzie dziś kończy się literatura? Wprowadzenie do debaty „Granice literatury”W marcu zeszłego roku Sam Altman, CEO-czarodziej OpenAI, wrzucił na X wpis o tym, że w ramach testów polecił jednemu z modeli wygenerować metafikcyjne opowiadanie o żałobie i sztucznej inteligencji. „Pierwszy raz naprawdę poruszyło mnie coś napisanego przez AI; idealnie uchwyciło klimat metafikcji”[1] – napisał. Jednym z głównych zagrań tego wytworzonego tekstu było bicie serca, „migający kursor zatrzymał swój puls” i takie tam. „Zachęcam, żebyś przeczytał trochę prawdziwej literatury, zanim uznasz to za dobre pisanie” – odpisał ktoś[2]. Jeśli zastanowimy się, na czym w tej sytuacji zależało Altmanowi, to dojdziemy do wniosku, że chodziło mu przede wszystkim o wrażenie.
Celem przemysłu AI jest sprawianie wrażenia, a jego efektywność mierzona jest dowożeniem tego wrażenia użytkownikom końcowym. Wytworzony obrazek wygląda jak prawdziwe zdjęcie, wygenerowana muzyka gra, bot, z którym konwersujemy, wydaje się nas rozumieć i wspierać, kiedy akurat mamy słaby dzień, a praca zaliczeniowa czy opowiadanie nie różni się pozornie od tych pisanych samodzielnie (chociaż korzysta z ograniczonej liczby źródeł[3]). Oczywiście użyteczność sztucznej inteligencji może być też mierzona w wydajności, zadawane są jednak wtedy inne pytania: jak skutecznie i w skończonym czasie przetworzyć miliony dokumentów i wygenerować podsumowania, jak błyskawicznie znaleźć błędy w kodzie źródłowym, jak poprawić rozpoznawanie tekstów w skanach rękopisów. Problemy te nie są jednak aż tak atrakcyjnie medialne jak pytania o to, czy AI pisze już tak dobrze jak czołowi autorzy albo czy egzamin na ASP zdać można z przygotowania prompta do dobrze ocenionego wytworu. Publiczność interesuje wrażenie, nerdy koncentrują się na wynikach.
I dalej, pytania o wydajność wymagają skupienia uwagi na szczegółach, osiągach i całym technologicznym stacku każdego zadania. Tymczasem oceny wrażenia nie wymagają żadnych przygotowań – coś nam się podoba albo nie, coś wyzwala w nas określone emocje albo nie wyzwala tych emocji. Altman w cytowanym wpisie nie zastanawiał się nad tym, czym jest dobra literatura, jakie mogą być jej możliwie uniwersalne wyznaczniki. Po prostu wygenerowany tekst mu się spodobał, sprawiał wrażenie ludzkiego autorstwa, a więc AI okazało się efektywne.
Eksperyment Chakrabarty i współautorów[4] pokazał dobitnie, że koszty dostrojenia ogólnego dużego modelu językowego do stylu twórczości wybranego autora i wygenerowania kilku jakościowych fragmentów są marginalne – wynosiły od 25 do 276 dol. na autora (mediana – 81 dol). Co więcej, ich jakość była na tyle przekonująca, że zwykli czytelnicy preferowali je nad falsyfikatami, tworzonymi ręcznie przez sprawnych rzemieślników ze szkół pisania. Generatywne teksty sprawiają dobre wrażenie i są radykalnie tanie w produkcji.
Nie wydaje mi się jednak, żeby miało to być problemem. Dlaczego? Porozmawiajmy przez chwilę o stylu. Cyceron określał styl jako „sposób pisania właściwy danemu pisarzowi”[5], inni widzieli w nim ekspresję duchowości autora, jego indywidualny sposób wyrażania się, mający oczywiście pewne estetyczne konsekwencje, budujące wrażenie z lektury. Jest jednak w humanistyce także tradycja formalnego opisywania języka i tekstów literackich. „Styl tekstu jest zbiorem kontekstualnych prawdopodobieństw jego językowych jednostek” – pisał w latach 60. Niels Erick Enkvist.
Piotr Sadzik w niedawnym eseju poddał krytyce styl nagradzanych polskich autorów: kiedy czytamy kolejną książkę o trudach życia na wsi, jedną z tych, zaliczanych przez do nurtu prababkizmu (pojęcie Mateusza Kosteckiego), z pewnością natkniemy się na inwersję[6]. Jak pisze cytowana przez Sadzika Zuzanna Sala o jednej z książek z tego nurtu, „autorce chyba bardzo zależało na tym, żeby naśladować żywą mowę, ale wybrała sobie w tym celu dokładnie jedno narzędzie: wypierdalanie orzeczenia na koniec zdania. Ta inwersja ma nas przekonać do spontaniczności uchwytywanych myśli i stanów, jest jednak straszliwie karykaturalna”. Styl ma być „sposobem pisania właściwym danemu pisarzowi”, ale posłuszny trendom rynkowym autor czy autorka zredukuje go do prostej statystyki, którą da się skopiować: im więcej prababkizmu, tym więcej inwersji.
Sadzik pokazuje, jak polscy autorzy replikują metodę pracy na języku, charakterystyczną dla sztucznej inteligencji. Podobnie jak oni, AI identyfikuje – co z tego, że w trybie trenowania i statystycznie – pewne cechy określonych gatunków, nurtów, tematów i rejestrów, korzystając z bogatej bazy treści treningowych. Następnie, odpowiednio nakierowana promptem, jest w stanie wygenerować żądany tekst, reprezentujący składany matematycznie styl. Efektem przetwarzań modeli, jak i pracy spolegliwych wobec trendów autorów, jest standaryzacja języka. A przecież, jak pisze Sadzik, „standaryzacja uderza w sam genotyp literatury, która polega na pokazaniu, że rzeczy mają się zawsze trochę inaczej, niż się zwykle wydaje”.
Niestety, z samej natury językowej wynika, że styl może podlegać klonowaniu, a standaryzacja jest nieunikniona na określonym poziomie.
Jednym z centralnych pojęć w dyskusjach, ale też praktyce sztucznej inteligencji, jest model. To nic innego jak pewna uproszczona reprezentacja rzeczywistości. Chcielibyśmy, żeby literatura była sygnałem ciągłym, a nie jak model kwantyzowała językową rzeczywistość. Niestety, tak jak zdjęcie w procesie digitalizacji rozbijane jest na siatkę pikseli, do których przypisywany jest odpowiedni kolor określony standardowymi relacjami między głównymi barwami (RGB), tak styl dowolnego autora może być rozbity na zestaw estetycznie czy matematycznie przeliczalnych cech, ponieważ wyraża się w języku. Folgowanie trendom czy trzymanie się językowej niszy nie ma tu znaczenia, o ile dostępna jest odpowiednia ilość treści, na których można trenować lub z której można kopiować.
Język sam w sobie podlega pewnej standaryzacji. Nie chodzi tu nawet o gramatykę (niski poziom analizy), ale elementy narracyjne dostępne wyżej. Wyszukiwania w korpusie języka polskiego byłyby bezlitosne dla tych, którzy szukają awangardy w prozie – jak bohater wychodzi, to najpewniej z domu, słońce świeci (a nie płonie), deszcz pada, a nie „jest porannym fakiem, jaki świat pokazuje ci prosto między oczy”. Każdy język da się ustandaryzować w modelu.
Skoro tak, to styl pisania nie może być właściwy jedynie ludziom. „Badania pokazują, że ChatGPT ma tendencję do preferowania standardowej gramatyki i akademickiego stylu wypowiedzi, unikając slangu i kolokwializmów. W porównaniu z tekstami pisanymi przez ludzi ChatGPT częściej nadużywa wyszukanych czasowników, takich jak «delve», «align» czy «underscore», oraz przymiotników, takich jak «noteworthy», «versatile» i «commendable». Można uznać te słowa za typowe dla idiolektu ChatGPT” – czytamy w „Scientific American”[7], chociaż idiolekt wymaga podmiotu, prawda? Skoro styl może być niemal za darmo replikowany, a język naturalny doskonale symulowany, to gdzie leży wartość literatury (przy założeniu, że piszą ją wyłącznie ludzie)?
Redukowanie tematu literatury i AI do niesprawiedliwego zawłaszczania twórczości literackiej przez firmy budujące duże komercyjne modele jest błędem. Podchodząc do tematu w ten sposób, stawia się w centrum AI, a nie literaturę. To sztuczna inteligencja, a nie twórczość ma tu coś do powiedzenia. Przychodzi mi na myśl wiele znanych obrazów, mogących ilustrować takie podejście: rolnictwo wielkoobszarowe, kopalnie odkrywkowe z tym niesamowitym sprzętem, wyciągane z wody sieci pełne ryb, może też długie przemysłowe kurniki. Dla wielu AI to aktywne narzędzie konsumpcji i przetwarzania, literatura to zasób, niemal naturalny.
Jednak wbrew pozorom branża sztucznej inteligencji jest na straconej pozycji względem pisarzy i pisarek, nawet jeśli to przegrana złodzieja, któremu udało się położyć łapę na bogatych zasobach. Wciąż nie zagrzmiały trąby i nie domknął się w chwale cykl baniek technologicznych, więc nie jest nam do śmiechu. Nieliczni dostają jakieś grosze za użycie własnych tekstów, nieuczciwie przejętych do trenowania modeli[8]. Księgarnie internetowe i biblioteki zalewane są przez maszynowo generowane powieści – już rok po oficjalnej premierze ChatGPT Amazon musiał wprowadzić limity publikowania książek na swojej platformie selfpublishingowej (do trzech na dzień!)[9]. Czy jednak któreś z tych zjawisk mówi cokolwiek o literaturze? Czy wpływa na nią jakoś inaczej niż przez presję?
W znanym opowiadaniu „Pierre Manard, autor Don Kichota” Borges porównuje dwa identyczne fragmenty z części pierwszej rozdziału dziewiątego tego dzieła. Jeden z nich pisany jest przez Cervantesa w XVII wieku, drugi – zupełnie nie-anachronicznie – właśnie przez Manarda w pierwszych latach XX wieku. Druga, ale identyczna wersja, oceniana jest przez narratora wyżej – Manard pisze przecież Don Kichota mając doświadczenie historii po Cervantesie, a jego archaizujący styl „odznacza się pewną afektacją”, inaczej niż codzienny hiszpański żołnierza-pisarza z Alcali.
Humorystyczny paradoks tego opowiadania może być źródłem pewnej wizji literatury w „epoce sztucznej inteligencji”, ponieważ jest to tekst o powtórzeniach. Wygenerowany przez AI fragment Annie Ernaux, Haruki Murakamiego, D.W. Wallace’a czy George’a Saundersa[10], nawet identyczny z tymi, jakie znajdziemy w opublikowanych już dziełach tych autorów, jest inny. Tekst wygenerowany przez AI nie jest tekstem Manarda, nie jest pisany od zera i nie jest autentyczny. Jest jedynie biernym odbiciem prawdziwego tekstu, wrażeniem złożonym z prawdopodobieństw. Nawet jeśli idealną, to rekonstrukcją.
W grudniu zeszłego roku w „New Yorkerze” Vauhini Vara, pisarka i dziennikarka technologiczna, próbowała rozpoznać znaczenie eksperymentu Chakrabarty z klonowaniem literackiego stylu[11]. Ostatecznie przyjęła do wiadomości wysoką skuteczność tego procesu, kiedy jej znajomi mieli problemy z prawidłową atrybucją tekstu wygenerowanego przez AI na podstawie jej prozy. Wygenerowane przez Chakrabartę próbki w stylu innych autorów i autorek były dla niej i innych czytelników „mocne” i „poruszające emocjonalnie”. Autorzy, poproszeni o komentarz, mieli jednak inne zdanie: „uznali swoje odpowiedniki AI za nieprzekonujące; byli bardziej uważnymi czytelnikami własnych tekstów niż ktokolwiek inny”, jako osoby będące źródłem własnego stylu doskonale rozpoznawały, że mają do czynienia jedynie z wrażeniem.
Vara nie miała też problemu z rozbiciem oczekiwań wobec takiej generatywnej prozy. Nawet jeśli odpowiednio wytrenowany model potrafi tworzyć teksty, mogące sprawiać wrażenie autorskich, w żaden sposób nie oznacza to, że potrafi konstruować fabułę, postaci bohaterów, świat przedstawiony. Wciąż istnieje – jak pisze – ogromna przepaść między dobrym zdaniem a dobrą powieścią.
Postawa Vauhini Vary jest jednak elitarna: to znana dziennikarka, publikująca w czołowych czasopismach, posiada wypracowywane przez lata doświadczenie i wrażliwość literacką. Trudno oczekiwać, że będzie to postawa powszechna na tyle, żeby kierować trendami rynku książki. Wszyscy zresztą chcemy książek tanich i dostępnych, najlepiej skrojonych pod nasze oczekiwania emocjonalne i estetyczne – późnym listopadowym wieczorem nie zawsze się chce iść na siłownię, czasem lepiej zamówić pizzę. Jeśli styl literacki jest tak łatwo kopiowalny, a koszty generowania tekstów bliskie zeru, nadprodukcja generatywnych powieści i opowiadań może realnie wpłynąć na status autorów na rynku. Być może działa tu prawo długiego ogona – kilka, kilkanaście bestsellerów zbierze bardzo wysoką liczbę czytelników (a więc i kupujących), ale całe tysiące, jeśli nie setki tysięcy generycznych tekstów w sumie ściągnie większość ruchu na rynku. Proces ten wzmocnić mogą w pewnym momencie wydawnictwa, jako przedsiębiorstwa nastawione na zysk szukające nieustannie optymalizacji kosztów i przerzucania ich na kogoś innego. Tym kimś będą nie tylko znani lub mniej znani profesjonalni twórcy, ale też całe miliony osób, które napisały kiedyś cokolwiek twórczego w internecie, do czego mogły dostać się scrapery zbierające dane treningowe dla AI. Znów przypomnieć można tu metaforę kopalni czy uprawianej ekstensywnie roli – literatura traktowana jest w praktyce jako zasób naturalny.
Być może jednak, jak sugeruje Vara, obawy przed klonami literackimi są wyrazem tego, jak w Europie czy na Zachodzie rozumie się czytanie i pisanie. Kiedy literatura jest przede wszystkim sprawą prywatną, maszynowe ataki na styl mogą budzić przerażenie. Kolektywne i wspólnotowe ujęcie literatury właściwie blokuje myślenie o zdolności do symulowania ludzkiej twórczości. Modele AI cechuje głęboka stronniczość, a generowane przez nie fabuły i style – wysoka generyczność[12]. Zamiast kontekstu, profilowania, endemicznych doświadczeń pracują one na uśrednionej wersji rzeczywistości, podobnie jak spolegliwi pisarze i pisarki. Jeśli kawiarnia, to raczej taka z Nowego Jorku z jazzem w tle, jeśli miłość, to między kobietą a mężczyzną, jeśli babcia ze wsi, to mądra życiowo starowinka, ciężko doświadczona i mówiąca trochę jak mistrz Yoda. Turystyczna wersja rzeczywistości, która musi być oparta na wrażeniach. Da się to też pięknie wyczuć na wizualnych slopach AI.
Nie zmienia to jednak sytuacji twórców, którzy nie mogą liczyć na podmiotowe traktowanie. Jeśli literatura ma być – w praktyce – zasobem naturalnym, to kontakt z nią polegać musi przede wszystkim na eksploatacji. Nie ma tu miejsca na dzielenia włosa na czworo, rozmowy o granicach stylu literackiego, zapożyczeniach i prawie autorskim. Przyprawa musi płynąć.
Konsekwencją tego jest jeszcze głębsze „naturalizowanie” literatury, które da się rozpoznać w niektórych komentarzach wokół walki o prawa twórców. Jeśli literatura jest dobrem naturalnym, to nie powstaje w wyniku pracy, ale natchnienia. Nie ma w niej miejsca na wysiłek autora czy autorki, jest raczej mechaniczna praca związana z obróbką, filtrowaniem, pakowaniem do wysyłki – taką pracę wycenia się nisko. Wydaje mi się, że konsekwencją odpuszczenia praw twórców i twórczyń wobec przemysłów AI jest zgoda na rozpowszechnianie tej niebezpiecznej herezji. Łatwość replikacji stylu niczego nie dowodzi, może być jedynie narzędziem użycia.
AI będzie zawsze w tyle za ludzkimi twórcami, w tworzeniu-kopiowaniu nigdy nie osiągnie statusu Manarda. Dziś nie wpływa na literaturę, chociaż podkopuje materialny wymiar jej funkcjonowania i swoimi wytworami konkuruje o uwagę z czytelnikami. Literatura, z definicji zawsze ludzka, nie jest jednak biernym zasobem, raczej warunkiem funkcjonowania AI w twórczym pisaniu: źródłem niezbędnych prawdopodobieństw, autentyczności, doświadczeń rzeczywistości i prawdziwej losowości. Wciąż celem tekstów generowanych przez AI jest jedynie sprawianie wrażenia, że zostały napisane przez człowieka. Nic ponadto, dlatego już czas radykalnie zmienić spojrzenie, wysoko podnieść głowę i pokazać faka, joł madafaka[13].
Przypisy:
[1] Sam Altman, https://x.com/sama/status/1899535387435086115, 11.03.2025 (https://archive.is/EsmLb)
[2] Vauhini Vara, What If Readers Like A.I.-Generated Fiction?, „New Yorker”, 20.10.2025, https://www.newyorker.com/culture/the-weekend-essay/what-if-readers-like-ai-generated-fiction.
[3] Yutao Wu et al., PaperAsk: A Benchmark for Reliability Evaluation of LLMs in Paper Search and Reading (2025), https://doi.org/10.48550/arXiv.2510.22242
[4] Tuhin Chakrabart et al., Readers Prefer Outputs of AI Trained on Copyrighted Books over Expert Human Writers (2025), https://arxiv.org/abs/2510.13939.
[5] Cytaty na temat definicji stylu zaczerpnąłem z opracowania Teresy Skubalanki О definicjach stylu, „Stylistyka”, 1995, 4, 7–23.
[6] Piotr Sadzik, Gry pozorów, „Dwutygodnik”, 432/2026, https://www.dwutygodnik.com/artykul/12327-gry-pozorow.html.
[7] Karolina Rudnicka, Each AI Chatbot Has Its Own Distinctive Writing Style—Just as Humans Do, „Scientific American” (2025), https://www.scientificamerican.com/article/chatgpt-and-gemini-ai-have-uniquely-different-writing-styles
[8] AI startup Anthropic agrees to pay $1.5bn to settle book piracy lawsuit, „Guardian”, 05.09.2025, https://www.theguardian.com/technology/2025/sep/05/anthropic-settlement-ai-book-lawsuit.
[9] Ella Creamer, Amazon restricts authors from self-publishing more than three books a day after AI concerns, „Guardian”, 20.09.2023, https://www.theguardian.com/books/2023/sep/20/amazon-restricts-authors-from-self-publishing-more-than-three-books-a-day-after-ai-concerns.
[10] To niektórzy z autorów, których teksty symulowano w eksperymencie Chakrabarty.
[11] Vauhini Vara, op. cit.
[12] Jill Walker Rettberg et al., AI-generated stories favour stability over change: homogeneity and cultural stereotyping in narratives generated by gpt-4o-mini (2025), https://doi.org/10.48550/arXiv.2507.22445.
[13] Konsekwencją maszynowego uśredniania stylu jest brak przestrzeni na takie niespodzianki. Nie tyle w fabule, bo nieraz mogą być one konsekwencją wybranego gatunku (horror czy creepypasta), ale w języku. Badania pokazują, że duże modele językowe nie nadają się do pisania poezji, ponieważ proponowany przez nie język jest zbyt oczywisty, domknięty i dosłowny, zob. Olga Vechtomova, Between Predictability and Randomness: Seeking Artistic Inspiration from AI Generative Models (2025), https://doi.org/10.48550/arXiv.2506.12634.
O AUTORZE
Marcin Wilkowski
Programista i historyk, pracuje w Centrum Kompetencji Cyfrowych UW. Twórca projektu humanistyka.dev i bloga blog.humanistyka.dev. Współ-laureat nagrody w I Konkursie na Najgorszą Książkę im. Timothy’ego Dextera (Oficyna Dar Dobryszyc, 2025).
