Doktor nauk humanistycznych, adiunkt w Katedrze Mediów, Dziennikarstwa i Komunikacji Społecznej w Wyższej Szkole Informatyki i Zarządzania w Rzeszowie. Jest autorem wielu publikacji naukowych oraz raportów badawczych w dziedzinach takich jak: cyfrowa humanistyka, komparatystyka, teoria literatury, semiotyka nowych mediów, poetyka hipertekstu, studia nad adaptacją, translatologia. W latach 2016-2017 stypendysta SAIA (National Scholarship of the Slovak Republic) w Instytucie Literatury Powszechnej Słowackiej Akademii Nauk Słowackiej Akademii Nauk. Od 2020 roku jest współpracownikiem naukowym Electronic Literaturę Lab na Washington State University Vancouver w USA. Jego ostatnia publikacja książkowa to “Challenges of Born-Digital Fiction: Editions, Translations, and Emulations”, Cambridge University Press (2024).
Dyrygent i poeta – nowa rola informatyka w dobie ChatGPT
Informatycy przestają być członkami orkiestry, stają się dyrygentami – usłyszałem kilka dni temu na konferencji w Londynie. Innymi słowy, indywidualni programiści nie muszą już pisać kodu, a zamiast tego zachęca się ich, by podchodzili do swoich zadań tak, jakby kierowali programistyczną orkiestrą złożoną z asystentów. Owi asystenci są jak ChatGPT, z których każdy to potencjalnie osobny model sieci neuronowej wytrenowany na wyspecjalizowanym odcinku wiedzy informatycznej. Pojawia się jednak problem. Aby skutecznie dyrygować informatyk musi poszerzyć swoje kwalifikacje o umiejętności dotąd nie kojarzone z pisaniem kodu, czyli sztukę pisania promptów i sprawne posługiwanie się arsenałem językowym.
Jak zlecić napisanie porcji kodu tak, by sztuczna inteligencja nie szła na skróty, unikała banału i nie halucynowała? Każdy z tych problemów zasługuje na osobną refleksję. Spostrzeżenia, wnioski i ewentualne porady warto jednak poprzedzić próbą odpowiedzi na podstawowe pytanie: jak sprawnym językowo członkiem informatycznej orkiestry są dzisiejsze systemy dialogowe? Kilka ciekawych odpowiedzi pojawiło się podczas dyskusji o językowych umiejętnościach ChatGPT, którą toczą pisarze, krytycy i czytelnicy Times Literary Supplement – opiniotwórczego tygodnika, który od ponad stu dwudziestu lat pozostaje wyznacznikiem „wysokiej” kultury literackiej w Wielkiej Brytanii i poza nią. Wyłaniają się z niej trzy ciekawe, nieoczywiste tezy.
Po pierwsze, ChatGPT bywa rozpoznawalnie staroświecki. „Przez ponad trzydzieści lat mojego nauczania w Berkley w esejach licencjackich moich studentów nie pojawiło się ani razu słowo „zgłębiać” (ang. delve), aż do dziś” – pisze Eric Naiman, profesor literatury rosyjskiej, którego studenci w ostatnich dwóch latach ochoczo zaczęli prosić ChatGPT o pomoc w pisaniu wypracowań o Dostojewskim. Oto zatem, z jednej strony, Dostojewski „zgłębia” problematykę destrukcyjnych sił ludzkiego umysłu lub ekonomicznych zmagań jednostki, a z drugiej ten czy inny esej studencki ma na celu „zagłębienie się” w etyczne i egzystencjalne problemy dziewiętnastowiecznej Rosji. Sama twórczość autora Braci Karamazow, jak dorzuca Naiman, od zawsze była określana jako „złożona” bądź „zawiła”, ale nigdy „zniuansowana” i „wieloaspektowa” – kolejne ulubione słowa i zarazem znaki rozpoznawcze zbyt rozgadanej, mało precyzyjnej, szablonowej treści, którą bez umiejętnego promptu otrzymamy od ChatGPT.
Po drugie, ChatGPT jest – po wojskowemu wręcz – szablonowy. Niemal każda wygenerowana przez niego wypowiedź ciągła, pisana płynną prozą, jest tak naprawdę przebraną w paragrafy listą rzeczy, którą maszyna chce dla nas wypełnić i wyczerpać. Na końcu takiej listy najczęściej pojawia się banalne uogólnienie w stylu „a potem żyli długo i szczęśliwie”. Mary Beard, czołowa publiczna intelektualistka Wielkiej Brytanii, z zawodu profesor literatury antycznej, zapytała ChatGPT o rolę Cycerona i jego mów (słynna „O tempora! O mores!”) w wydarzeniach wokół spisku Katyliny. ChatGPT przyjął niezwykle uproszczoną, pozbawioną niuansów pro-cycerońską wypowiedź, która zostaje podsumowana zdaniem na poziomie ośmioklasisty:
„Rola Cycerona w udaremnieniu spisku podniosła jego status jako męża stanu i mówcy, czyniąc go jedną z najbardziej znanych postaci Rzymu”. Beard przypomina, że nie tak długo po zdemaskowaniu Katyliny Juliusz Cezar zmusza Cycerona do opuszczenia Rzymu. Odmowa czerpania ze źródeł, niechęć do ukazywania dwóch stron medalu, tendencja do prezentowania budujących wniosków i zakończeń czyni z językowej sztucznej inteligencji zasób wiedzy dużo uboższy od Wikipedii – podsumowuje Beard.
Po trzecie, ChatGPT potrafi dość zuchwale kłamać i wymigiwać się od trudniejszych zadań. Mary Beard na pytanie o swój własny biogram otrzymała mieszaninę prawdy (edukacja, część dorobku) z nieprawdą (dyplom, imiona rodziców). Jeden z czytelników TLS, Brian Reffin Smith, wystawił model na jeszcze inną, językową próbę, którą po polsku i z użyciem aktualnego modelu ChatGPT 4.5 pozwolę sobie zrekonstruować i przytoczyć:
MP: Czy wiesz, co to jest lipogram?
ChatGPT: Oczywiście! Lipogram to tekst, który został napisany z wyłączeniem określonej litery lub określonych liter. To zabawna i czasem trudna sztuka pisania, która wymaga od autora kreatywnego podejścia do unikania używania pewnych liter.
MP: Skomponuj jednozdaniowy lipogram o przygodach kota, w którym brakuje litery „o”:
ChatGPT: Kot sprytnie żeglował po dachach, podążając za zmiennym światłem gwiazd.
MP: Czy w powyższym lipogramie słowa „kot”, „po” i „podążając” nie zawierają litery „o”?
ChatGPT: Przepraszam za pomyłkę! Oczywiście, „kot”, „po” i „podążając” zawierają literę „o”. Pozwól, że poprawię to: *Głodny felis skakał z dachu na gałęzie, tropiąc myszy w ciszy nocnej.
Dlaczego w jednym, krótkim lipogramie, w którym miało brakować „o”, litera pojawia się aż trzykrotnie, a program dopiero po upomnieniu używa synonimu słowa kot, choć jednocześnie dodaje do lipogramu trzy kolejne słowa z „o”? Nieznane są ścieżki językowej sztucznej inteligencji. Trudno zaprzeczyć, że jest ona obecnie najpotężniejszym przykładem komputerowej czarnej skrzynki, o której działaniu użytkownik wie tyle, co nic.
Duże modele językowe wciąż przypominają szkolnego lizusa, który pragnie zadowolić swojego nauczyciela kosztem rzetelnej i zwięzłej odpowiedzi, zakładając, że byle jaka odpowiedź jest lepsza niż żadna.
Dla programisty – dyrygenta, na dowolnym etapie projektu, oznaczać to może poważny zgrzyt, a nawet groźbę zawalenia się podłogi pod całą orkiestrą.
Na szczęście to właśnie niedoskonałości systemów takich jak ChatGPT pomagają zabezpieczyć się przed katastrofą. Dobrego asystenta poznamy po jego wytworach! Czego unikać, na co stawiać nacisk i co warto wielokrotnie powtarzać w interakcji z modelem – sztuka promptu, umiejętność jak najbardziej językowa, będzie musiała tym wyzwaniom sprostać. Programista, aby być dyrygentem informatycznej orkiestry, która odnosi sukces, powinien tę sztukę opanować.
Źródła:
Mary Beard, ChatGPT Gets it Wrong, Times Literary Supplement, https://www.the-tls.co.uk/articles/chat-gpt-gets-it-wrong-blog-post-mary-beard/
Eric Naiman, AI meets Dostoevsky’s Grand Inquisitor, Times Literary Supplement, January 26, 2024, https://www.the-tls.co.uk/articles/ai-chatgpt-dostoevsky-essay-eric-naiman/.
Brian Reffin Smith, The Limits of AI (letters), March 1, 2024, https://www.the-tls.co.uk/articles/the-limits-of-ai-2/