
Yana Baharevich
Stażystka w Wyższej Szkole Informatyki i Zarządzania w Rzeszowie – sekretarz Katedry Sztucznej Inteligencji oraz uczestniczka działalności naukowo-badawczej od 2025 roku. Obecnie studiuje Informatykę na studiach inżynierskich, ze specjalizacją w inżynierii danych. W ramach praktyk studenckich rozwijała kompetencje z zakresu frontendu, automatyzacji testów z wykorzystaniem języka Python oraz analizy i przetwarzania danych w Pythonie. Podczas stażu angażuje się zarówno w działalność naukową, jak i organizacyjną. Jej zainteresowania koncentrują się wokół backendu w Pythonie, analizy danych oraz wykorzystania sztucznej inteligencji w aplikacjach.
Sztuczna inteligencja w cyberbezpieczeństwie: między ochroną a zagrożeniem
Potęga współczesnych modeli sztucznej inteligencji (dalej AI, z ang.Artificial Inteligence) wykroczyła poza ramy technologii eksperymentalnych, przekształcając ją w narzędzie zmieniające zasady gry w kluczowych branżach. Jeśli pierwsze chatboty AI były postrzegane sceptycznie ze względu na częste błędy, a generowane przez nie pliki multimedialne wyglądały sztucznie, to dziś ich integracja ze środowiskiem cyfrowym stała się powszechna i prawie niezauważalna. Postęp ten w naturalny sposób dotknął również sferę cyberbezpieczeństwa, gdzie sztuczna inteligencja pełni obecnie podwójną rolę: służy zarówno jako potężne narzędzie ochrony, jak i wyrafinowana broń atakujących. Zrozumienie głównych kierunków jej zastosowania w celach obronnych stanowi podstawę do poruszania się po współczesnym krajobrazie zagrożeń cyfrowych.
Ciemna strona AI
Kryminalizacja dużych modeli językowych
Metoda ta powstała wraz z utworzeniem specjalistycznych „ciemnych” sztucznych inteligencji, takich jak WormGPT, które są analogiczne do ChatGPT, ale całkowicie pozbawionych ograniczeń etycznych i prawnych, przeznaczonych do automatyzacji oszustw, generowania skryptów do hakowania i wszelkich innych zapytań, których pierwotny ChatGPT nie może zrealizować ze względu na swoją politykę.
Jednak tworzenie własnych modeli sztucznej inteligencji wymaga znacznych zasobów i nie zawsze się opłaca i spowodowało zniknięcie WormGPT, dlatego współcześni cyberprzestępcy coraz częściej wybierają włamania do istniejących już legalnych systemów sztucznej inteligencji, takich jak ChatGPT lub Gemini. W tym celu wykorzystuje się specjalnie skonstruowane zapytania tekstowe (z ang. promt), które w sposób oszukańczy zmuszają model do ignorowania wbudowanych zasad bezpieczeństwa. W rezultacie sztuczna inteligencja może zacząć generować teksty phishingowe, złośliwy kod lub zabronione informacje. Metoda ta została nazwana „iniekcją promptów” i stała się tak powszechna, że przekształciła się w odrębny nielegalny rynek usług, znany jako Jailbreak-as-a-Service, co można przetłumaczyć jako „hakowanie sztucznej inteligencji na zamówienie”.
Na dzień dzisiejszy zagrożenie to nabrało globalnego wymiaru: międzynarodowa społeczność zajmująca się bezpieczeństwem OWASP umieściła ataki typu „prompt injection” na pierwszym miejscu w swoim rankingu głównych luk w zabezpieczeniach dużych modeli językowych i generatywnej sztucznej inteligencji w 2025 r., uznając ten wektor ataku za najbardziej niebezpieczny i priorytetowy dla ochrony.

Deepfakes i ataki klonowania głosu
Deepfake – to wygenerowane lub zmanipulowane przez sztuczną inteligencję obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe. Technologie deepfake i klonowania głosu pokazują, jak AI może być wykorzystywana do tworzenia przekonujących podróbek osobowości. Za pomocą sztucznej inteligencji cyberprzestępcy są w stanie naśladować głos, styl korespondencji, a nawet wygląd konkretnej osoby. Wykorzystując metody inżynierii społecznej, wysyłają wiarygodne wiadomości lub wykonują połączenia telefoniczne, w wyniku których ofiary dobrowolnie przekazują poufne dane. Szczególnie niebezpieczny jest fakt, że technologie te pozwalają na obejście systemów uwierzytelniania głosowego i utrudniają wykrycie oszustwa. Na przykład instytut Ponemon poinformował o incydencie, w którym cyberprzestępcy wykorzystali wiadomości wygenerowane przez sztuczną inteligencję, podając się za dział kadr w okresie rozliczania świadczeń pracowniczych, co doprowadziło do kradzieży danych uwierzytelniających.
Antagonistyczne uczenie maszynowe
Antagonistyczne uczenie maszynowe (z ang. Adversarial machine learning) to metoda, w której cyberprzestępcy oszukują sztuczną inteligencję poprzez manipulowanie danymi wejściowymi, na których powstał model, zmuszając ją do popełniania błędów. Nie potrzebują do tego wirusów ani łamania kodu, wystarczy umiejętnie „podsunąć” systemowi nieprawidłowe dane. Istnieją dwa główne sposoby przeprowadzenia takiego ataku. Ataki unikowe, w których osoba atakująca tworzy dane wejściowe, zmuszając model do nieprawidłowego zidentyfikowania obiektu. Na przykład złośliwe oprogramowanie imitujące nieszkodliwy plik w celu ominięcia systemów antywirusowych. Istnieją również ataki typu „zatrucie”, w których osoba atakująca psuje dane, na których uczy się model AI. Na przykład dodaje do danych, na których trenowany jest model, złośliwe pliki oznaczone jako „bezpieczne”. W rezultacie system od samego początku uczy się nieprawidłowo i w przyszłości nie jest w stanie rozpoznać rzeczywistych zagrożeń. Metoda ta działa, ponieważ modele AI dobrze znają to, co widziały, ale gubią się, gdy pokazuje się im coś nowego, nawet bardzo podobnego. „Złośliwi użytkownicy” za pomocą specjalnych narzędzi tworzą złośliwy kod, który tylko nieznacznie różni się od już znanego, a system go przepuszcza.
Jasna strona AI
Sztuczna inteligencja w centrach zarządzania bezpieczeństwem
Centrum operacji bezpieczeństwa informacji (z ang. SOC — Security Operations Center) to jednostka organizacyjna, która przez całą dobę monitoruje stan infrastruktury cyfrowej i reaguje na cyberincydenty. Wcześniej taka praca wymagała ręcznej analizy tysięcy zdarzeń i była w dużym stopniu uzależniona od czynnika ludzkiego oraz doświadczenia konkretnych specjalistów. Integracja sztucznej inteligencji pozwoliła zautomatyzować wstępne przetwarzanie danych, zmniejszyć obciążenie analityków i wykrywać zagrożenia, które mogłyby pozostać niezauważone.
Nowocześni asystenci AI są w stanie analizować ogromne zbiory logów i aktywności sieciowej w czasie rzeczywistym. Na przykład w 2025 roku asystent AI Xbow zajął pierwsze miejsce pod względem liczby wykrytych luk w zabezpieczeniach według platformy HackerOne. Podczas zawodów z cyberbezpieczeństwa w formacie Capture The Flag, gdzie uczestnicy muszą znaleźć i usunąć luki w zabezpieczeniach systemów, agenci AI osiągnęli wyniki na poziomie najlepszych specjalistów.

Sztuczna inteligencja w analizie zachowań użytkowników
Analiza zachowań użytkowników i podmiotów (z ang. – UEBA User and Entity Behavior Analytics) to technologia, wykorzystująca uczenie maszynowe do tworzenia podstawowych profili normalnego zachowania użytkowników, urządzeń i aplikacji, a następnie wykrywa anomalie i podejrzane odchylenia od tych profili w celu wykrycia wewnętrznych zagrożeń, skompromitowanych kont i ukierunkowanych ataków, które są trudne do zauważenia przy użyciu tradycyjnych metod. Podejście to jest najbardziej pożądane w środowiskach korporacyjnych o jasnych zasadach dostępu. Typowym przykładem może być sytuacja, w której dochodzi do wielokrotnych prób uzyskania dostępu do krytycznych serwerów poza godzinami pracy z nietypowej lokalizacji geograficznej. Według prognoz analityków Gartner, obecnie 95% wdrożeń UEBA to nie oddzielne produkty, ale niewidoczne jądro platform, które są sprzedawane jako kompleksowe systemy. UEBA stała się obowiązkowym, ale ukrytym standardem współczesnego cyberbezpieczeństwa dla różnych rodzajów działalności.
Sztuczna inteligencja jako predykcyjny obrońca
Systemy predykcyjnej i proaktywnej ochrony (Predictive & Proactive Defense) to kompleksowe metody wykorzystujące sztuczną inteligencję i analizę danych do przewidywania potencjalnych sytuacji awaryjnych. Systemy predykcyjnej i proaktywnej ochrony wykorzystują sztuczną inteligencję do przewidywania cyberataków, zanim jeszcze zostaną one zrealizowane. Modele predykcyjne pozwalają ustalić priorytety podatności na podstawie ich rzeczywistego wpływu na system, modelować możliwe ścieżki ataku wewnątrz infrastruktury i przewidywać cele atakujących. Według badania IBM Security „Cost of a Data Breach Report 2023” automatyzacja procesów wykrywania i reagowania pozwala wykrywać i lokalizować incydenty o 108 dni szybciej, co znacznie zmniejsza potencjalne szkody.
Podsumowanie
Dwoistość roli sztucznej inteligencji podkreśla, że nie jest ona ani wyłącznie dobrodziejstwem, ani jednoznacznym zagrożeniem. Jej wpływ zależy od kontekstu zastosowania, poziomu kontroli i odpowiedzialności użytkowników. Co więcej, nie powinna ona funkcjonować jako samodzielna jednostka infrastruktury. W warunkach szybkiego rozwoju sztucznej inteligencji kluczowym czynnikiem staje się, nie tylko udoskonalanie technologii ochrony, ale także świadome podejście do ich stosowania. Zrozumienie możliwości i ograniczeń sztucznej inteligencji staje się ważnym elementem umiejętności cyfrowych i niezbędnym warunkiem stabilnego bezpieczeństwa cybernetycznego w przyszłości.