Modernistyczny prompt a grafomania 2.0, czyli dlaczego AI nie napisze za nas dobrej literatury
Inez Okulska
Głos Inez Okulskiej w debacie „Granice literatury”.
strona debaty
Gdzie dziś kończy się literatura? Wprowadzenie do debaty „Granice literatury”Najpierw była pełnoprawna proza, ze wstępem, rozwinięciem i zakończeniem, oraz pełne dorodnej symboliki wiersze, równo skrojone niczym żywopłoty w angielskich ogrodach. Liniowe narracje, w ogóle jakieś narracje, postaci z krwi i kości, i nade wszystko to znamienne, wielkie, literackie coś, co autor chciał nam powiedzieć. A potem autor umarł i najpierw wkroczyliśmy do jego gabinetu i przetrząsnęliśmy szuflady, pełne szkiców i niedokończonych, może nawet nigdy niezamierzonych, treści, by bezpardonowo czytać je po swojemu, a następnie spomiędzy okładek wypuściliśmy niczym z klatek wszelkie dzieła: od dzisiaj jesteście wolne, możecie wesoło trzepotać znaczeniami w takt czytelniczych doznań. Wyemancypowana literatura wyszła na ulicę, jedna zajrzała pod spódnicę, do kosza, rynsztoku, rozgościła się w melinie, inna w ciasnym garniturze pognała do korporacji na spotkanie, które mogłoby być mailem. Bez autora, zlepiona z przygodnych wrażeń, sloganów i językowych artefaktów, zachłyśnięta samą sobą, na pierwszy plan wysunęła słowo, pełne faktur i dźwięków, namacalne, samowystarczalne. Na tym nowym balu literackości niegdyś wdzięczne, liniowe narracje teraz zdecydowanie dłużej podpierały ściany, coraz częściej do samego końca nieproszone przez nikogo.
Zachwycaliśmy się literaturą postmodernistyczną, na nowo wymagającą, bo nieoczywistą, a jednocześnie pełną możliwości – czytelnik jako pan i władca sensu mógł teraz dobrowolnie błądzić po labiryntach własnych skojarzeń, zamiast prostych historii, były pajęczyny znaczeń, literackie grafy o węzłach wyznaczonych przez słowa, imiona, graficzne formy zapisu.
Aż pewnego dnia, niczym Chochoł na weselu, pojawiła się sztuczna inteligencja (AI). Taka, która generuje teksty, obrazy i filmy wideo. Jedni zastygli, inni się ucieszyli, pozostali wszczęli lament – ale przede wszystkim, jak to zazwyczaj z niespodziewanymi dziwadłami bywa, zanim zdołała się porządnie przedstawić, natychmiast obrosła w mity i uprzedzenia.
„ChatGPT to tylko stochastyczna papuga, która sięga jedynie po najbardziej prawdopodobne następne słowo” – ileż razy to już słyszeliśmy? Że jak „dzień”, to „dobry”, jak „w imię”, to „ojca”, i tak dalej. Tak, duże modele językowe opierają się na prawdopodobieństwie, ale nie bez znaczenia jest fakt, że ten zarzut mógł mieć większą siłę dwa lata temu, ale już niekoniecznie teraz. Obecne modele to wielogłowe hydry, czyli wielopoziomowe architektury, które oprócz solidnego materiału bazowego (te wszystkie teksty, obrazy i multimedia, które zobaczyły i przeanalizowały w pierwszym procesie kształtowania swojej wiedzy o świecie i modelu języka), przeszły kolejne etapy treningu: umiejętność rozumienia i wykonywania konkretnego typu poleceń (np. streść, napisz, podsumuj, określ, wymyśl, znajdź różnice, nazwij słabe i mocne strony etc.), oraz szkolenie z dobrych manier, czyli naukę preferencji (która odpowiedź jest lepsza, bardziej pożądana ze względu na formę, życzliwość, przydatność, etc.); a dodatkowo obudowane są dostępem do poszerzonych źródeł (Internet, kompilator kodu), i całego zestawu filtrów lub modeli pomocniczych, których dokładnego zakresu pilnie strzegą dostawcy.
Jak więc działają i o co chodzi z tym prawdopodobieństwem? Gdy zadajemy modelowi pytanie, ono wyznacza kierunek (dosłownie, bo w wyniku mnożenia macierzy wektorów otrzymujemy kolejne wektory), wzdłuż którego należy iść po przestrzeni wag, czyli zestawów liczb kodujących miliardy słów i zdań (a wcale nie całych tekstów!), żeby dojść do właściwego „katalogu”. Katalogu właściwego, czyli takiego, w którym prawdopodobnie znajdzie się zestaw słów, wyrażeń lub zdań przydatnych do tego, by zareagować na nasze pytanie.
Natomiast nie ma już mowy o ślepym doczepianiu następnych słów jak w prymitywnych algorytmach generatywnych typu łańcuchy Markowa. Owo „prawdopodobieństwo” nie jest już składową prostego rankingu częstości występowania słów po sobie, a wynikiem mnożenia wspomnianych macierzy kodujących (mocno upraszczając) tematy, znaczenia, wydźwięki, style – ono nas prowadzi w odpowiednie rejony, pozwala zawęzić perspektywę w tym oceanie słów i znaczeń. Ale to prawdopodobieństwo, co istotne, idzie dalej pod rękę z pewną dozą losowości, bo iść z nią musi – inaczej na to samo pytanie dostawalibyśmy zawsze dokładnie tę samą odpowiedź i bardzo szybko kończyłyby się możliwe następne słowa. W ten sposób niechybnie zbiegałyby wszystkie słowa do zdań albo tak bezpiecznie sztampowych jak z elementarza, albo tak spektakularnych, jak zielone idee u Chomsky’ego. Owa niezbędna losowość to zresztą jednocześnie jedna z głównych winowajczyń halucynacji, ale nimi nie będziemy się tu zajmować, wszak są one przejawem swoistej kreatywności, a o tę w literaturze – czy to ludzkiej czy generowanej przez AI – zawsze będziemy walczyć.
Oprócz losowości mamy jeszcze w modelach zaszytą autoregresję, która pozwala na to, by nie tylko generować kolejne słowa, zdania czy zaplanowane kroki, ale też w odpowiednim momencie wracać do efektu tej generacji i analizować wstecznie (reflektować), w kontekście przyjętych kryteriów i w razie potrzeb modyfikować, odrzucać, podmieniać. Ta uważna autolektura o wiele bliższa jest zresztą ludzkim mechanizmom samokontroli niż chcielibyśmy to przyznać.
No dobrze, krzyczą następni – może i nieco wykwintniej komponuje AI swoje teksty, ale tylko dlatego, że wrogo przejęła całą twórczość człowieka, nasyciła się naszym dobrem intelektualnym i teraz bezczelnie używa tych przez wieki z mozołem utkanych frazeologicznych i retorycznych połączeń, by z nich tworzyć własne teksty.
Ale czy to nie jest kwintesencja wykształcenia, którego życzylibyśmy wszystkim autorkom i autorom? Czy nie na tym polega nauka pisania, że najpierw czytamy, z uwagą i nie bez satysfakcji oddając się inżynierii wstecznej, i analizujemy, jak ten czy ów konstruował swoje dzieła, z czego składa się ich fenomen? Że o eksplozji cytatu, intertekstualnych nawiązań czy wręcz całych gatunków literackich opartych na dosłownym przejęciu cudzych fragmentów nie wspomnę. Czy na słynne Cantos Ezry Pounda czy Sosnowskiego zabawy w Po tęczy chcieliśmy się oburzać?
Ale dobiegają kolejne głosy sprzeciwu: modele mogą pisać w czyimś stylu, imitować czyjś osobisty, przez lata tworzony idiom, dlatego, że cały dostępny pisarski korpus bez pytania (kto i kogo miał pytać..?) został wzięty do treningu. Bez niego byłoby to niemożliwe, trzeba więc artystom zadośćuczynić udział w tym pisarskim karnawale, na który wcale się nie pisali. Ale przecież już ponad pół wieku temu fenomenalny Raymond Queneau pokazał, że potrafi napisać tę samą historię na 40 różnych sposobów, generując kolejne, coraz bardziej wyszukane style, a u nas nie mniej wybitnie Jan Gondowicz oddać je w polszczyźnie. Albo Grzegorz Uzdański, którego z pełnym przekonaniem tu i ówdzie zdarzało mi się już określać mianem „ludzkiego GPT”, bo zdołał trafnie zidentyfikować i na nowo wypełniać treścią algorytmy (poetyka to też algorytm) cechujące ponad 100 znanych autorów, by następnie przekonująco tworzyć w stylu każdego z nich nowe teksty.
Czy kiedykolwiek oprócz zachwytu nad językowym talentem parodysty poczuliśmy palącą potrzebę sprawiedliwości pod adresem parodiowanych? A wspomnieni Queneau, Gondowicz – ileż oni się musieli naczytać innych autorów, skoro mogą z taką swadą pisać teksty w dowolnie wybranym stylu, jak oni mogli, tak rozwijać swój warsztat na cudzych dziełach! Czy wiedza nie miała być dobrem powszechnym, niepoliczalnym, demokratycznie dostępnym każdemu, kto zechce po nią sięgnąć, bez podatku i opłat z gwiazdką? I czyż literatura sama w sobie nie jest zbudowana ze słów już po wielokroć użytych, czyż nie jest z założenia wieloautorskim, budowanym przez wieki palimpsestem? W swoim eseju „Sieci neuronowe typu GAN i GPT‑2, słowa zużyte i kreatywność, czyli literacki second-hand”[1] stawiałam tę też już przy okazji pierwszych, jeszcze raczkujących modeli generatywnych, ale może teraz warto do niej wrócić i zadumać się ponownie nad (dozwoloną) rolą współdzielenia myśli i języka.
Ale spokojnie, zanim na stół wyjadą wszystkie noże, które Wam się właśnie otworzyły w romantycznej kieszeni – sięgnijmy po fakty. Po pierwsze w zbiorach uczących dużych modeli tak naprawdę największy procent stanowią teksty użytkowe, w najlepszym wypadku informacyjne (artykuły prasowe), prawne, materiały edukacyjne czy naukowe oraz gigantyczne korpusy tekstów o walorach literackich zdecydowanie bliższych grafomanii niż literaturze wysokiej (blogi, komentarze, nieredagowane wypowiedzi). Budowa modeli otwartych, co do których znane są zbiory użyte w treningu, dość dobitnie dowodzi, że nawet model nauczony wyłącznie na wyżej wspomnianej mieszance, lub ewentualnie wzbogacony o literaturę z domeny publicznej (a więc w większości modernistyczną lub jeszcze wcześniejszą, bez praw do roszczeń), w zupełności wystarczy, by zbudował całkowicie funkcjonalną siatkę pojęć i relacji języka, która pozwoli mu tworzyć poprawne, potoczyste wypowiedzi na niemal każdy temat.
Po drugie model językowy jest przede wszystkim językowy, nie literacki. Może więc spójrzmy na AI jak na literaturę. Nie jak na byt, nie jak na narzędzie, lecz jak na dzieło wywodzące się z awangardowych ruchów literackich – zaproponował Jerzy Stachowicz[2], ale choć kuszą w dyskusjach o AI metafory maszyn literackich, to model językowy jest tak naprawdę dokładnie tym, na co wskazuje jego nazwa – zoperacjonalizowaną identyfikacją systemu języka, z uwzględnieniem wszystkich elementów de Saussierowskiej typologii (langage, langue i parole).
Niewiele się ten mechanizm zresztą różni od ludzkiego. Każdy sprawny intelektualnie człowiek, wychowywany w społeczeństwie, nabiera zdolności posługiwania się językiem, niezależnie od ilości przeczytanej literatury. Jeden będzie miał talent, językową intuicję, lepszy rozkład wewnętrznych „wag”, dzięki któremu sprawniej będzie zestawiał ze sobą poznane elementy, inny będzie potrzebował tysięcy przeczytanych tekstów, żeby zrozumieć wzorce i zacząć ich zgrabnie używać. Ale nawet w tym scenariuszu nie jest konieczne, aby wiodącym elementem edukacji były teksty literackie. Filozoficzne dysputy czy prawne erystyki, dobrze napisane branżowe teksty naukowe – one również z powodzeniem obrazują możliwości języka. Jakkolwiek wygodnie nam sądzić, że model zdolny imitować pisanie opowiadań czy wierszy musi być pokłosiem całej ludzkiej literatury, to tak niestety nie jest. Ostatecznie na poziomie samej materii literatura jest stworzona ze słów – a literatura ponowoczesna dobitnie nas o tym przekonywała – nierzadko tych samych, których używamy na co dzień, w zupełnie nieliterackich kontekstach.
Na osłodę dodam, że dzieła całkowicie stworzone przez AI po pierwsze nie podlegają prawu autorskiemu[3], więc nikt się łatwo na nich w rozumieniu autorskiemu tantiemu nie wzbogaci. A po drugie takie zupełnie nienadzorowane w przeważającej większości jakościowo bardzo słabe i rynkowi literackiemu nie zagrażają. I tu przechodzimy do ostatniego z obiegowych mitów, które warto wziąć pod lupę.
W niedawnej dyskusji na temat związków AI z literaturą Dorota Kotas, próbując kontrować zasadność istnienia narzędzi generatywnych w przestrzeni literackiej, sięgała po obiegowe wyobrażenie o tym, że wystarczy jedno polecenie wpisane do modelu, by jak za dotknięciem magicznej różdżki otrzymać skończone, pełne dzieło literackie, które z satysfakcją oszusta można zanieść wydawcy. Ten nieludzki, haniebny w swej prostocie czyn, odarty ze wszystkich cnot pisarskich przeciwstawia się oczywiście wysiłkom artysty, długiemu namysłowi, cierpieniom i bólom tworzenia, całemu, koniecznie długiemu i żmudnemu procesowi kreowania prawdziwej sztuki. Pomijając nieco już komiczny romantyzm tego obrazka i pytanie o to, czy w takim razie Gałczyński piszący wiersze na kolanie (a raczej na serwetce), w kawiarni, na akord, żeby tylko dostać kolejny trunek, nie zasługuje na uznanie swoich dzieł jako dość literackich – pomijając w ogóle wszystkie obecne w historii literatury przykłady weny, która pozwalała autorom napisać swoje dzieła sprawnie, bez bólu, cierpienia i wyrzucania pokreślonych kartek, trzeba rozprawić się z błędnym założeniem co do rzeczywistych możliwości obecnych modeli AI.
Pisanie z czatem to całkiem żmudna praca z tekstem. Nikt tu nie popracuje za nas, a zwłaszcza nie przejmie za nas myślenia. Nawet jeśli LLM dysponuje umiejętnościami odpowiednimi do szybkiego wygenerowania żądanego przez nas tekstu, to jeśli chcemy, żeby był ciekawy i na serio spełniał nasze założenia, musimy ten tekst tworzyć, nawet nie współtworzyć. Musimy negocjować, zadawać pytania, tworzyć podpowiedzi – znów sięgam do Jerzego Stachowicza, bo w punkt demistyfikuje ten proces. Nawet najnowsze modele, te „myślące”, w płatnej subskrypcji, wciąż potykają się o własne sznurówki, gdy chcemy stworzyć dłuższe, spójne, logiczne wypowiedzi. I to niezależnie od tego, czy to raport kwartalny na podstawie danych, czy fragment powieści albo dłuższe opowiadanie.
- Randka – dziewczyna i chłopak, flirt, seks.
- Następnego dnia – kurierka (dziewczyna z randki) dostarcza pizzę klientce, wdaje się w pyskówkę.
- Na klatce czuje ucisk w brzuchu i zawroty głowy.
- Po wyjściu z klatki zachodzi do apteki po test ciążowy.
- W domu wchodzi do łazienki, robi test, wynik wychodzi pozytywny.
To fragment planu wydarzeń do przykładowego opowiadania, w którym istotnym elementem jest przypadkowa ciąża – model tak bardzo chciał już dojść do kluczowego elementu narracji, że zupełnie nie widział problemu w tym, by nazajutrz po udanej randce pozwolić bohaterce najpierw już poczuć symptomy ciąży (i to dość dyskusyjne same w sobie), a następnie zrobić test i dowiedzieć się, że oto jest w ciąży. Dobę po stosunku! W innym przykładzie model zgubił logikę płci, z której wynikało, że na tej randce kobieta zaszła w ciążę z inną kobietą. W jeszcze innym, próbując opisać scenę na klatce schodowej, mieszał scenerię przypadkowego bloku klientki (sąsiadów, znanych elementów świata przedstawionego) z blokiem, w którym mieszka bohater.
Jeśli poprosić model o elementy kontrowersyjne, nietypowe, takie, z którymi mógłby empatyzować czytelnik, albo co gorsza humorystyczne – przepadnie z kretesem. I z pełnym przekonaniem o własnej racji, bo w każdym przypadku gotów nam wytłumaczyć, dlaczego dany pomysł jest wybitny, a żart śmieszny. Choć w rzeczywistości jedno i drugie będzie w najlepszym wypadku banalne, w najgorszym po prostu bez sensu. A warstwie retorycznej jeszcze bardziej płasko.
Dobra literatura, szczególnie ta „post”, ale nie tylko, wyróżnia się tym, co nieoczywiste, nieprawdopodobne – wysoki rejestr zestawiony nagle z czymś banalnie codziennym, trywialnym, przekleństwa w poezji, niegdyś zarezerwowanej całkowicie dla języka najwyższej elegancji, nieoczywiste postaci, rozszczepienia (bo nawet nie zwroty, jeśli nie jest liniowa) akcji. Duże modele językowe działają dokładnie odwrotnie – mają sięgać po to, co bardziej oczywiste, prawdopodobne, są świetne w opowieściach poprawnych, szkolnie „literackich”, czyli niewykraczających poza przyjęte kanoniczne granice języka i struktur narracji – że jak wiersz, to metafora dopełniaczowa, jak proza to „dawno, dawno temu”.
To nie znaczy, że odpowiednio poproszony (spromptowany) duży model nie będzie próbował poradzić sobie z imitacją dzieła mniej oczywistego, ale to będzie (mniej lub bardziej udany) literacki cosplay, odegranie narzuconej roli. „Naturalne” dla modelu są struktury bezpieczne, najczęstsze, przewidywalne – dosłownie, bo stworzone w wyniku działania mechanizmu predykcyjnego następnych tokenów i zdań. W tym sensie teksty tworzone z pomocą AI, bez świadomej, długiej, złożonej ingerencji człowieka, stają się nową formą grafomanii.
I to zarówno w rozumieniu Milana Kundery, który w Księdze śmiechu i zapomnienia podkreślał wewnętrzny przymus pisania, natychmiastowego „generowania” coraz to kolejnych form wypowiedzi na piśmie, z intencją pokazania ich czytelnikom innym niż najbliżsi, jak i w tradycyjnie pejoratywnym sensie pisania tekstów pozycjonowanych jako literackie, ale w istocie o wątpliwych walorach literackich.
Po demokratyzacji dostępu do powszechnej uwagi, czyli ekspansji Internetu, gdzie można ominąwszy redaktorów i wydawców, obwieszczać światu swoje słowa (blogi!), mamy dodatkowy gwóźdź do trumny masowej jakości, czyli maszynkę do generowania ogromnych ilości tekstów. I choć przed chwilą dowodziłam, że trudno pod rękę z AI napisać dobry tekst, to wciąż mamy problem strażników jakości – tylko wtedy mają szansę stanąć na drodze złego tekstu, jeśli zdecydujemy się na ich konfrontację, czyli wyślemy tekst do wydawcy. Ale przecież w samozachwycie klasycznego grafomana, można taki tekst prosto z modelu opublikować na tej czy innej stronie, w mediach społecznościowych, i upajać się polubieniami ludzi, którzy „czują tak samo”.
Nowością jest więc podwojenie imperatywu pisania – autor ma potrzebę wyrazić owo „coś”, co koniecznie musi obwieścić światu, ale zamiast samodzielnie złożyć tę układankę słów, tworzy prompt, który aktywuje wewnętrzny przymus pisania w modelu AI. Ale nowa jest też stylistyka tej grafomanii, bo wprawdzie może być kreatywna w ramach dowolnie zaproponowanego pomysłu autora promptu – model nieproszony o tę rolę, sam z siebie nie będzie wchodził w polemikę z zasadnością czy atrakcyjnością tego pomysłu – ale usłużnie rozwinie ją tak, jak potrafi najlepiej, czyli najpierw poprawnie, średnio, płasko.
Aczkolwiek dotychczas, szczególnie w prozie (szczęśliwi ci wszyscy, którzy nie musieli czytać grafomańskiej literatury erotycznej!) łatwo było grafomański charakter tekstu zidentyfikować już na poziomie samego języka, który nieświadomie kaleczył składnię, frazeologię, mieszał znaczenia, a ortografii i interpunkcji nie poważał wcale, albo co najwyżej stosował kapryśnie. Grafomania 2.0 to w istocie trudniejszy orzech do zgryzienia, bo w przeważającej większości zdania, całe ich akapity są tworzone zgodnie z kanonicznymi zasadami składni, interpunkcji i ortografii. W efekcie powstają wypowiedzi w formie idealnie satysfakcjonującej nauczycieli w podstawówce, którzy życzyliby sobie, by uczniowie na lekcjach języka polskiego pisali chociaż tak sztampowo poprawnie. Natomiast, jak już widzieliśmy przed chwilą, szybko zdradzi konstrukcja narracyjna takiego grafomańsko dziewiczego tekstu, pozbawionego świadomej kurateli człowieka. Owszem, tu i ówdzie powstanie godna uwagi miniatura, może mikroopowiadanie, ale częstotliwością tak losową, jak losowy jest charakter kreatywności modeli i to raczej wyjątek potwierdzający regułę.
I tu przechodzimy do najważniejszej tezy – która mam nadzieję nieco uspokoi rozgorączkowane serca wybitnych autorów i autorek – niezależnie od tego, czy chcemy pisać wspólnie z modelem, czy samodzielnie, wciąż od grafomańskich prób odróżniać Was będą wyczucie, tego, co dobre, tego, co już może ujrzeć światło dzienne, i porządny warsztat literacki, pozwalający owo dobre stworzyć.
Po co ten warsztat, gdybyście mieli tworzyć razem z AI?
Bo obecne (nie)możliwości AI i specyfika jej pobudzania mogą między innymi wskrzeszać warsztat tradycyjnej, z ducha modernistycznej literackości i sztuki narracji. Owszem, do generacji banalnego akapitu wystarczy banalny prompt i brak znajomości konstruowania literatury – tak jak każdy pięciolatek namaluje czarny kwadrat – ale bardzo szybko wyjdzie na jaw, kiedy to świadomy wybór artysty, nad którym warto się pochylić, bo w innych pracach jasno pokazał, że ma też znakomity warsztat realistycznego malarstwa (jakościowego pisarstwa), a kiedy maksimum możliwości AI-grafomana.
A dlaczego warsztat modernistyczny? Bo niezależnie od formy, którą ostatecznie ma nasze dzieło przybrać, jeśli chcemy je tworzyć z pomocą AI, musimy model odpowiednio pobudzać – promptować. A do tego okazuje się, że najpotrzebniejsze są odautorska myśl, precyzja jej przekazania, struktura wypowiedzi. Że szeroki zakres epitetów i umiejętność zbudowania precyzyjnego, jednoznacznego opisu postaci, świata przedstawionego czy linearnej sekwencji wydarzeń, przydadzą się znów bardziej niż kiedykolwiek. Nasz AI-chochoł może więc zupełnie przypadkiem zwiastować cichy renesans wielkich narracji.
Nie poezji? Z satysfakcją mawia się przecież tu i ówdzie, że teraz, gdy język naturalny stał się językiem programowania, bo każde pobudzenie modelu następuje właśnie w formie wypowiedzi, to na pierwszy plan wysuną się poeci, prawdziwi wirtuozi języka. Owszem, ale doczytajmy to, co małym drukiem: chodzi o pełną świadomość posługiwania się językiem jako takim, a nie o wyszukanie literacki wymiar samego promptu.
Bo jeśli za Jakobsonem przyjmujemy, że poezja to pogwałcenie zwyczajności języka, to ta nowa forma wypowiedzi – ten wszechobecny prompt – dokładnie odwraca ten wektor, siłą narzucając językowi dawny, do bólu poprawny porządek. Schematyczny, raczej pozbawiony funkcji poetyckiej, ale na tym poziomie chodzi o aktywację pierwotnej roli języka. Język ma być narzędziem, którym sprawnie się posługujemy, by osiągnąć komunikacyjny cel, a nie celem samym w sobie. Jest znów środkiem przekazu, formą niosącą treść.
Znów w centrum uwagi jest przekaz, a najważniejszą stawką w tej grze o interpretację jest takie przekazanie swojego zamiaru, by była możliwie klarowna, jednoznaczna – im lepiej model zdekoduje to, co autor (promptu) miał na myśli, tym lepiej będzie mógł zabrać się do realizacji zadania. W tym sensie powraca warsztat precyzyjnego, długiego, wieloaspektowego opisu, do łask przywołane zostają niezliczone przymiotniki, przysłówki, analogie (ale już niekoniecznie wyszukane metafory), choć zamiast malować obrazy w głowie czytelnika, tworzy semantyczne siatki w połączeniach modelu. Powraca więc ów warsztat ze zdwojoną siłą, bo ta funkcja komunikatywna ma jednocześnie wymiar performatywny, o niemal biblijnej sile sprawczej. Na naszych oczach słowo staje się sprawcą – tworzy przecież teksty, obrazy, analizy, wykresy, plany, porządki[4].
Z jednej strony klasyczny akt komunikacji, możliwy dzięki solidnemu opanowaniu dostępnych funkcji języka, z drugiej zaś znajomość zasad sztuki narracji, albo wręcz podstaw narratologii – kluczowych struktur, porządku elementów, po to by je sugerować już na etapie promptu inicjującego, ale też by przez całą drogę współpracy z modelem świadomie stać na straży wyników kolejnych generacji. To tu przecież nasz nieświadomy AI-grafoman się demaskuje – gdy nie dostrzega zawczasu, że sypie się logika, rozklejają wątki, brakuje postaci, że tyle tych strzelb, a żadna nie strzela, albo co gorsza strzelają te, których jeszcze nie załadowano. Dlatego nie powinno nas już nigdy więcej bulwersować, gdy okaże się, że dzieło, które znalazło uznanie krytyków, tak naprawdę było pisane w asyście AI. Bo to tak jakbyśmy oburzali się, na to, że zamiast na maszynie do pisania, pozwolił sobie artysta używać Worda i to jeszcze – co za bezczelność – z autokorektą (która też ma pod spodem przecież AI!).
***
Wiemy już, że nie jest najnowszej generacji sztuczna inteligencja aż tak bezmyślnie przypadkowa, jak chcielibyśmy sądzić (to coś o wiele więcej niż OuLiPo zastępujące wybrane słowa ich losowymi sąsiadami ze słownika), że jej retoryczna sprawność nie musi być pokłosiem treningu na wyłącznie literackich tekstach oraz mimo iż „wygadana”, wciąż nie jest autorem autonomicznym, który tworzy spójne, logiczne, poprawne, warte dłuższej uwagi czytelnika teksty literackie. Próby zaplanowania i napisania literacko dobrej narracji, a potem jeszcze obudowania jej językiem, który nie zgubi logicznych założeń ani językowego szwungu – szczególnie w polszczyźnie – dowodzą, że to choć pozornie dostępne i wszechmogące narzędzie, to prawdziwej sztuce zagraża tak samo jak Photoshop najlepszym fotografom.
Ambicje literackie mogą, choć nie muszą, rozszerzyć się więc teraz o sztukę opanowania promptu i literackiej negocjacji z modelem, bo po pierwsze sztuka korzystania z modeli w sposób, który by dawał naprawdę warte uwagi rezultaty w tak delikatnej materii jak literatura, jest niemal tak samo skomplikowana jako samo pisanie, a po drugie tak samo wymaga pomysłu i wyczucia artysty, który na każdym kroku odróżni literacko słabe od wartościowego. A dodatkowo młodym pokoleniom może przypomnieć nieco zakurzone elementy warsztatu pisarskiego, które stają się w tym współ-procesie tworzenia z AI niezbędne.
Apeluję więc: niech broni się efekt, nie sposoby dojścia, bo naprawdę dobry efekt wymaga wiedzy, umiejętności i talentu autora pobudzającego siebie do pisania lub pobudzającego model do pisarskiej współpracy – i jest to równie artystyczny sposób dojścia, a nie żaden szczęśliwy traf oszusta, za który trzeba byłoby książki współtworzone z AI palić na stosie.
Przypisy:
[1] Inez Okulska, Sieci neuronowe typu GAN i GPT‑2, słowa zużyte i kreatywność, czyli literacki second-hand, “Forum Poetyki” nr 18 (2019) https://pressto.amu.edu.pl/index.php/fp/article/view/21436
[2] Jerzy Stachowicz, Sztuczna inteligencja jest literaturą, https://www.dwutygodnik.com/artykul/11956-sztuczna-inteligencja-jest-literatura.html
[3] Zgodnie z polskim prawem autorskim, żeby utwór spełniał przesłanki dzieła autorskiego, musi być efektem wysiłku twórcy-człowieka. Por. Sławomir Konopiński, Prawa autorskie w odniesieniu do utworów tworzonych przez sztuczną inteligencję (AI) https://www.currenda.pl/prawa-autorskie-w-odniesieniu-do-utworow-tworzonych-przez-sztuczna-inteligencje-ai
[4] A wszystko to w środowisku koniecznego dialogu, w którym turn taking Sacksa i Jeffersona przybiera formę absolutną, niemal nieuniknioną – bardzo trudno jest zmusić model, by nie uczestniczył w tym konwersacyjnym ping-pongu.
O AUTORZE
Inez Okulska
Doktor nauk humanistycznych, magister inżynier automatyki, z ponad 8-letnim doświadczeniem w branży AI. Przez lata krytyczka literacka (publikowała m.in. w „Przekładańcu”, „Literaturze na Świecie”, „Twórczości”) i tłumaczka. Autorka modeli, algorytmów, zbiorów danych i rozwiązań AI w zakresie automatycznego przetwarzania języka naturalnego. Niegdyś adiunktka w Polsko-Niemieckim Instytucie Badawczym, później kierowała Zakładem Inżynierii Lingwistycznej w Państwowym Instytucie Badawczym NASK oraz Departamentem Innowacji i Technologii w Ministerstwie Cyfryzacji. Współzałożycielka i redaktorka naczelna pierwszych czterech numerów „hAI Magazine”, jedynego w Polsce drukowanego magazynu poświęconego AI. Prelegentka i keynote speaker wielu prestiżowych scen branżowych (w tym z serii tedX), gdzie ludzkim językiem opowiada o zawiłościach nieludzkiej inteligencji. Trenerka, edukatorka i specjalistka w zakresie rozwiązań agentowych. Wyróżniona m.in. w rankingach Top100 Women in AI in Poland oraz 25 kobiet na rok 2025 przez „Forbes Women”.
