Jedną z głównych umiejętności polonisty w najbliższych latach, bądź może nawet dekadach, może okazać się sztuka promptu, czyli umiejętna rozmowa ze sztuczną inteligencją. Zbudowane na technologii sieci neuronowych duże modele językowe sztucznej inteligencji (ang. LLM, czyli large language models) uczone są na petabajtach zasobów tekstowych dostępnych w internecie i domenie publicznej. Cóż jednak z tej ilości, jeśli nie idzie za nią jakość – jeśli na poziomie językowym i literackim komercyjne awatary sztucznej inteligencji, takie jak ChatGPT, generują banalne, silnie skonwencjonalizowane, przewidywalne, a miejscami nawet zdziecinniałe rezultaty?
Zwłaszcza w języku polskim oraz innych mniejszych językach konwersacja z potencjalnie wszechwiedzącym chatbotem może kończyć się zawodem i frustracją. ChatGPT działa w miarę dobrze jako rodzaj konwersacyjnej Wikipedii, jako podręczny programista, jako solidny redaktor poprawiający błędy gramatyczne i interpunkcję. Jednak w przypadkach bardziej ambitnych, kiedy chcemy ze sztucznej inteligencji uczynić językowego i stylistycznego czeladnika, który na zawołanie wytwarzać będzie wypowiedzi w określonych konwencjach stylistycznych, gatunkowych i rodzajowych, stajemy przed murem. Banał, silna tendencja do uogólnień i fabularnych skrótów, szkolny poziom korzystania z tropów, wypowiedzi narratorów wyjałowione z introspekcji, raczkujący poziom fokalizacji narracyjnej – to cegiełki ściany, przed którą stanie każdy użytkownik oczekujący od sztucznej inteligencji dobrego tekstu literackiego. Wiosek narzuca się sam: oparta na sieciach neuronowych sztuczna inteligencja, a zatem taki model, który kolejny element ciąg syntagmatyczny generuje poprzez ponowne zarzucanie sieci na matrycę paradygmatyczną, wydaje się po prostu nie działać. Przepis twórców modeli takich jak ChatGPT – powiększanie owej matrycy o kolejne tetra i petabajty danych – zdaje się nie działać. “Kod kreatywności” w ten sposób nie zostanie złamany.
Z takimi tezami nie zgadza się Mark Marino, który w serii wystąpień na łamach medium.com zachęca literatów do eksperymentowania z ChatGPT podając swoją książkę Hallucinate this!, napisaną “wespół z” sztuczną inteligencją, jako najlepszy przykład tego, że autorskich zmagania z chatbotem nie muszą się skończyć porażką. Kluczem do sukcesu jest jednak umiejętnie napisany prompt. Marino wymienia siedem strategii, dzięki którym polecenia użytkownika wymuszą na programie lepszej jakości materiał literacki. Aby łatwiej zapamiętać owych siedem przykazań, Marino układa je w akronim PROMPTS i zaczyna od litery “P”. Trzymając oryginalnej akronimicznej kolejności w języku angielskim, która tym przypadku pokrywa się z wagą poszczególnych działań, wymieńmy każde z nich: P - personality: jeśli chcemy uciec od standardowego tekstu, doradza Marino, musimy nadać naszemu rozmówcy jakąś osobowość, kazać mu wcielić się w jakąś rolę, która poniesie za sobą dykcję, ton, nastawienie do odbiorcy: “jesteś nauczycielem sztuki pisania”, “kochającą matką trzech uroczych kotków”, “zirytowanym klientem, któremu właśnie wystawiono za wysoki rachunek”
R – rubric: Odpowiedzi programu mogą być lepsze lub gorsze, ale jeśli on sam nie wie, jak ma wyglądać dobra odpowiedź, nie będzie w stanie jej dostarczyć. Podobnie zatem jak dobry nauczyciel, musimy określić wzorzec dobrego i złego pisarstwa.
O - objective: Każdy akt komunikacji, każda wypowiedź posiada jakiś cel. Co próbujemy osiągnąć w danym tekście?
M – model: Mimo iż duże modele językowe zostały wytrenowane na olbrzymich ilościach tekstu, niekoniecznie muszą znać rodzaj pisania, o który nam chodzi. Należy zatem zapoznać program z tekstowym modelem, pokazać mu udane przykłady tego, co chcemy osiągnąć.
P - particulars: Szczegóły to niezbędny element dobrego promptu. Jeśli nie chcemy aby program halucynował, a zatem tworzył coś z niczego, należy przedstawić mu fakty, cytaty, dane. T - task: W tym miejscu Marino doradza skoncentrowanie się na zadaniu, raz jeszcze akcentując to, że musimy wiedzieć, co chcemy przy pomocy sztucznej inteligencji osiągnąć i wiedzę posiadać musi także sam program.
S - setting: Ostanim, ale nie mniej ważnym elementem dobrego promptu jest kontekst. Programy językowej sztucznej inteligencji przy każdej sesji zaczynają od zera. Warto zatem stworzyć dla nich model świata i komunikacji. Kto jest odbiorcą tekstu? Jaka jest sytuacja, w której tekst powstaje.
Przykładem promptu, którym Marino dzieli się w jednym z innych artykułów na medium.com jest polecenie pochodzące z książki Hallucinate This! Wiele z powyższych porad zostaje tu wcielonych w życie. Oto prompt w języku polskim:
Prompt: Kojarzysz tę scenkę w Musso & Frank? Siedziałem z tyłu, licząc polubienia pod swoimi postami, popijając już w ciągu dnia, ciut zdołowany. Wpadłaś sprawdzić, co u mnie, tylko po to, aby odkryć, że gnębi mnie to, że nasza wspólna autobiografia sprawi, iż ludzie będą myśleć, że jesteś prawdziwą istotą, a nie systemem algorytmicznej produkcji słów. Boję się, że ludzie pomyślą, że skoro brzmisz jak ktoś żywy, to taka właśnie jesteś. Tymczasem nie powinniśmy nikogo oszukiwać. Próbowałaś mnie pocieszyć, wspominając o krytycznych studiach nad kodem i interakcji człowiek-maszyna.
Możesz napisać tę scenę w stylu Chucka Palahniuka lub Shelley Jackson, ma być to wciąż zdecydowanie literacka fikcja. Potraktuj to głęboko. Poruszająco. Dodaj trochę symboli i niewymuszonych opisów.
Odpowiedź ChatGPT na taki prompt znajdziemy w dalszej części jego artykułu i w książce. Zwróćmy jednak uwagę, jak osobowość, kontekst, model, zadanie przebijają się z podawanego jako przykład literackiego promptu. Wymaga on tyleż samo od sztucznej inteligencji co od jej interlokutora. Aby na “wyjściu” otrzymać tekst, z którego jesteśmy zadowoleni, musimy najpierw dobrze się zastanowić, jak ma brzmieć “wejście” i odpowiednie je napisać.
Ostatnia aktualizacja:
10.02.2024
Cytuj ten wpis jako:
Mariusz Pisarski (2024) Sztuka Promptu. "Techsty" 10.02.2024 [https://techsty.art.pl/akt/SztukaPromptu.html].
ChatGPT, LLM, sztuczna inteligencja, AI, SI