Coraz częściej pojawia się pytanie, czy generatywne modele sztucznej inteligencji mogą nieświadomie powielać treści z bazy treningowej i stać się tym samym „nosicielami plagiatu”. Jan Kaczmarczyk, ekspert WSIiZ z zakresu przeciwdziałania przestępstwom finansowym, zauważa, że AI nie jest autorem, więc nie może przywłaszczyć sobie cudzego utworu. Co więcej, prawdziwe ryzyko rozpoczyna się tam, gdzie kończy się świadomość użytkownika, bo to on ponosi odpowiedzialność za sposób wykorzystania narzędzia.

Czy istnieje ryzyko, że algorytmy AI same stają się „nosicielami plagiatu”, odtwarzając fragmenty tekstów oryginalnych z bazy treningowej? Jeśli tak, to można się przed tym jakoś zabezpieczyć? 

Jan Kaczmarczyk: Nie jestem prawnikiem, więc odpowiem zgodnie z tym, co wiem, ale na pewno dla pewności warto zasięgnąć opinii prawnej i śledzić aktualne orzecznictwo. Zgodnie z moją wiedzą, mogę powiedzieć, że sztuczna inteligencja nie może popełnić plagiatu. Jeśli plagiat zdefiniujemy zgodnie z art. 115 Ustawy o prawie autorskim i prawach pokrewnych, to „przestępstwo polegające na przywłaszczeniu sobie autorstwa, albo wprowadzenie w błąd co do autorstwa całości lub części cudzego utworu, albo artystycznego wykonania, to aby je popełnić, musi występować dwóch autorów: autor oryginalnego dzieła i ten przypisujący sobie autorstwo”. Algorytm sztucznej inteligencji nie jest autorem, więc nie może popełnić plagiatu.

Bardziej mamy tu do czynienia z żartem statystycznym, że jeśli nieskończenie wiele małp, będzie nieskończenie długo uderzało w klawisze maszyn do pisania, w końcu odtworzą wszystkie dzieła Shakespear’a. Czy będziemy mieli wtedy do czynienia z plagiatem? Nie, bo małpa nie może popełnić plagiatu. AI jedynie osiągnie to szybciej, bo zna prawdopodobieństwa występowania poszczególnych słów w odpowiednim kontekście.

Patrząc od drugiej strony, ktoś, kto wykorzystuje wynik działania generatywnej sztucznej inteligencji i podpisuje jako swoje, też nie popełnia plagiatu, bo… AI nie jest autorem. A gdy nie ma autora, nie ma ochrony praw autorskich. Jeśli zdarzy się tak, że GenAI odpowiadając na prompt skopiuje czyjś utwór, a użytkownik podpisze go jako swój, prawdopodobnie użytkownik będzie mógł zostać oskarżony o plagiat przez oryginalnego autora. Nie ma to jednak nic wspólnego z używaniem sztucznej inteligencji, a ze zwykłą starannością i uczciwością kopiującego. Myślę, że najlepszym zabezpieczeniem przed tym jest budowanie świadomości i edukowanie użytkowników AI.

Jan Kaczmarczyk, ekspert WSIiZ z zakresu przeciwdziałania przestępstwom finansowym.

Na ile wyrafinowane są dziś metody manipulacji AI, które mogą sprawić, że narzędzie będzie nieświadomie produkować treści z naruszeniem prawa autorskiego? 

J.K: Jak wspomniałem, generatywna sztuczna inteligencja nie może naruszyć prawa autorskiego, bo nie jest autorem. A tworzenie treści na podstawie dzieł jest podstawową zasadą jej działania, a nie metodą manipulacji. Jeśli mamy porozmawiać o manipulacji AI, do głowy przychodzą mi dwa scenariusze. Obydwa bardzo dobrze funkcjonujące.

Pierwszy scenariusz to oszustwa typu deepfake, gdy ktoś podaje treści wytworzone przez AI jako prawdziwe, aby wprowadzić innych w błąd, czyli mamy do czynienia z  manipulowaniem ludźmi za pomocą sztucznej inteligencji.

Drugi, to „wstrzyknięcie promptu”, czyli sytuacja odwrotna. Gdy to człowiek chce zmanipulować sztuczną inteligencję, żeby wyprodukowała wynik, do którego nie została zaprogramowana. Chyba ten przypadek jest najbliższy łamaniu prawa autorskiego z wykorzystaniem sztucznej inteligencji. 

Jak prawo autorskie nadąża (lub nie nadąża) za zjawiskiem „plagiatu AI” w skali międzynarodowej? 

J.K: Ważniejsze od samego prawa autorskiego wydaje mi się próba uregulowania używania sztucznej inteligencji przez europejski Akt w sprawie sztucznej inteligencji. Ta regulacja, to próba zabezpieczenia obywateli Unii Europejskiej przed nadużyciami wynikającymi z używania AI. 

Czy w przyszłości możliwe będzie wprowadzenie certyfikatów lub „śladów cyfrowych” pozwalających odróżnić tekst stworzony przez człowieka od AI? I czy to w ogóle będzie potrzebne? 

J.K: Takie technologie już istnieją i… są oparte o sztuczną inteligencję. Istnieją zarówno narzędzia, które oceniają prawdopodobieństwo, że coś jest wytworzone przez AI (wdrożone choćby na platformach mediów społecznościowych), jak i takie które mają „uczłowieczyć” takie dzieło i zmniejszyć prawdopodobieństwo jego wykrycia.

Z drugiej strony, tokeny NFT mogłyby służyć jako certyfikaty oryginalności dzieła, ale na razie nie słyszałem o takim ich stosowaniu. Jest to technologia dobrze znana, bo kilka lat temu przeżywała hype w kontekście inwestycji. Skoro na razie nikt jeszcze jej nie zastosował do potwierdzenia pochodzenia dzieła myślę, że jest to albo niepotrzebne, albo zbyt drogie. 

Czy ryzyko nadużyć AI w kontekście plagiatu można traktować jako element większych kampanii dezinformacyjnych? 

J.K: Nie w kontekście plagiatu, ale jak najbardziej AI jest używana w ramach kampanii dezinformacyjnych prowadzonych na przykład przez grupy APT, w tym rządowe jako stałe element wojny hybrydowej. Pokazuje to choćby przykład konfliktu w Ukrainie. Podobnie, z metod AI korzystają grupy ransomware czy fraudsterzy, którzy mogą szybko tworzyć spersonalizowane treści wysokiej jakości, na które ofiara może łatwiej dać się nabrać. 

Jakie strategie powinny wypracować uczelnie i organizacje, aby uniknąć nie tylko plagiatu, ale i cyberataków pośrednio wynikających z nadużywania AI? 

J.K: Sztuczna inteligencja tylko naśladuje działanie człowieka. Dlatego, aby ograniczyć ryzyko oszustw i ataków z użyciem sztucznej inteligencji wystarczy stosować te same metody, co dotychczas. Nadal podstawą jest odpowiednia edukacja, i tu jest wiodąca rola uczelni, oraz budowanie świadomości. System antyplagiatowy tak samo dobrze wykryje tekst skopiowany przez człowieka, jak i przez AI, ale kluczem jest zdrowy rozsądek i świadomość osoby zatwierdzającej wynik systemu. E-mail phishingowy przygotowany przez AI może nie mieć literówek, ale będzie zawierał podobne flagi ryzyka i czytelnik sprawdzający nadawcę, linki i kontekst wiadomości nie da się nabrać.

Z Janem Kaczmarczykiem rozmawiała Joanna Gościńska z Biura Prasowego i PR WSIiZ

Tekst powstał w ramach cyklu edukacyjno-informacyjnego „CyberPaździernik we WSIiZ”.