Już 64 proc. organizacji ocenia bezpieczeństwo narzędzi AI przed ich wdrożeniem – to więcej niż rok wcześniej
Już 64 proc. organizacji ocenia bezpieczeństwo narzędzi AI przed ich wdrożeniem – to więcej niż rok wcześniej
Tylko w lutym 2026 roku CERT Polska (zespół zajmujący się reagowaniem na cyberzagrożenia działający przy Państwowym Instytucie Badawczym NASK) otrzymał 18,5 tysiąca zgłoszeń dotyczących incydentów bezpieczeństwa. To wzrost o 68 proc. w porównaniu do danych sprzed roku[1]. Tempo wzrostu liczby cyberataków jest dzisiaj problemem globalnym, wynikającym przede wszystkim z niestabilnej sytuacji geopolitycznej. Na wyzwania, z którymi muszą mierzyć się organizacje na całym świecie, wpływa jednak nie tylko skala zjawiska. Coraz większym problemem staje się również brak przygotowania nowych technologii na działalność cyberprzestępców. Jak pokazuje Global Cybersecurity Outlook 2026, problem dotyczy przede wszystkim narzędzi opartych na sztucznej inteligencji[2]. Ponad 6 na 10 organizacji stara się reagować na to ryzyko i ocenia ich bezpieczeństwo przed wdrożeniem[3]. Czy podejmowane środki są wystarczające?
Narzędzia AI na celowniku cyberprzestępców
Globalne badania nie pozostawiają wątpliwości – cyberataki na narzędzia AI są aktualnie najszybciej rosnącym zagrożeniem cybernetycznym. Ich wzrost w porównaniu do 2025 roku zauważyło aż 87 proc. organizacji. To więcej niż w przypadku klasycznych, dobrze znanych zagrożeń: phishingu z wykorzystaniem technologii cyfrowych (na większą skalę tego problemu zwraca uwagę 77 proc. badanych), zakłóceń w łańcuchu dostaw (65 proc.) czy wykorzystywania luk w zabezpieczeniach oprogramowania (58 proc.)[4]. Co ciekawe, na wzrost liczby ataków DoS, których celem jest przeciążenie serwera lub sieci ogromną liczbą zapytań, zwraca uwagę jedynie 28 proc. badanych. Niemal co piąty z nich zauważa z kolei mniejszą intensywność tego zagrożenia niż przed rokiem[5].
Jak wyjaśnia Dariusz Świąder, Prezes Linux Polska, rozwój technologii przynosi nowe szanse nie tylko organizacjom, ale też cyberprzestępcom. Ci drudzy przenoszą ciężar swojej działalności na obszary, które nie zawsze są odpowiednio zabezpieczone.
– Organizacje słusznie zauważają potencjał narzędzi AI. Tempo ich rozwoju wiąże się jednak z pewną presją – osoby decyzyjne chcą jak najszybciej wdrażać nowe rozwiązania, co często odbywa się kosztem analizy ryzyka. Cyberprzestępcy wykorzystują lukę kompetencyjną zespołów i fakt, że procedury bezpieczeństwa w firmie nie zawsze nadążają za technologiami. Dlatego tak ważne jest, by wdrożenie sztucznej inteligencji w organizacji uwzględniało wymogi bezpieczeństwa i prywatności, a wybór konkretnych narzędzi wynikał z analizy procesów i wyzwań biznesowych. Organizacje muszą również pamiętać o możliwie bezproblemowej integracji rozwiązań z istniejącą infrastrukturą IT – dopiero wtedy narzędzia takie jak inteligentni asystenci, agenci danych czy modele uczenia maszynowego przynoszą oczekiwane efekty. Biorąc pod uwagę kwestie biznesowe i te związane z bezpieczeństwem, optymalną opcją są rozwiązania zaprojektowane indywidualnie dla konkretnej organizacji – mówi Dariusz Świąder, Prezes Linux Polska.
Otwarte rozwiązania sposobem na koszty i bezpieczeństwo?
Chęć dostosowania narzędzi opartych na sztucznej inteligencji do własnych potrzeb biznesowych nakierowuje managerów i właścicieli firm na rozwiązania open source. Nie są to sytuacje rzadkie – aż 89 proc. organizacji, które wdrożyły AI, skorzystało w pewnym zakresie z otwartych technologii[6]. Co druga z nich uważa, że opcja ta wiąże się z mniejszym ryzykiem niż rozwiązania komercyjne (przeciwnego zdania jest tylko 16 proc. badanych)[7]. Jak podkreśla Tomasz Dziedzic, CTO w Linux Polska, mimo to należy pamiętać, że wdrożenie otwartych narzędzi AI także wiąże się z koniecznością przeprowadzenia analizy ryzyka.
– Rozwiązania open source uchodzą za bezpieczniejsze między innymi ze względu na stałą kontrolę społeczności projektowej nad kodem. Oznacza to, że wszelkie luki i błędy mogą być szybko zauważone i naprawione. W praktyce nie zawsze jest to możliwe, dlatego również i w tym przypadku konieczna jest analiza ryzyk związanych z potencjalnymi atakami w wyniku użycia niesprawdzonego kodu, brakiem wsparcia i aktualizacji czy opóźnionym dostarczeniem poprawek bezpieczeństwa. Pod uwagę należy wziąć nie tylko kwestie techniczne – w przypadku oprogramowania z otwartym kodem ważna jest również analiza zmian w licencjach czy ograniczeń licencyjnych, które wpływają na zakres, w jakim poszczególne narzędzia mogą być wykorzystane przez organizacje – tłumaczy Tomasz Dziedzic CTO w Linux Polska.
Organizacje zmieniają podejście do bezpieczeństwa AI
Świadomość zagrożenia wpłynęła na podejście organizacji do ryzyka związanego z wykorzystaniem rozwiązań opartych na sztucznej inteligencji. W 2025 roku zaledwie 37 proc. firm posiadało proces oceny bezpieczeństwa narzędzi AI przed ich wdrożeniem. W tym roku odsetek ten wynosi już 64 proc., co może oznaczać, że organizacje chcą korzystać z najnowszych technologii odpowiedzialnie i przy jak najmniejszym ryzyku[8]. Kacper Szczepaniuk, Observability Inżynier w Linux Polska, zauważa jednak, że dane tylko częściowo to potwierdzają.
– Fakt wzrostu liczby firm, które podejmują działania związane z bezpieczeństwem IT przed skorzystaniem z nowych rozwiązań, na pewno jest dobrą informacją. Szczegółowe wyniki badań nie są już tak optymistyczne: 40 proc. organizacji dokonuje okresowych przeglądów narzędzi AI, a 24 proc. tylko raz, najpewniej przed samym wdrożeniem w organizacji[9]. Tego typu metody ograniczenia ryzyka zwyczajnie nie są w pełni skuteczne. Poziom bezpieczeństwa musi być analizowany w trybie ciągłym, w ramach spójnej i spersonalizowanej strategii monitoringu i obserwacji IT. Dzięki monitoringowi organizacja uzyskuje informację o stanie ekosystemu cyfrowego na daną chwilę, z uwzględnieniem takich obszarów jak infrastruktura sprzętowo-systemowa, warstwa sieciowa, usługi IT, procesy biznesowe czy aplikacje. Obserwowalność dostarcza dodatkowo wiedzy o przyczynach awarii i problemów, które mogą wpłynąć na bezpieczeństwo organizacji – dodaje Kacper Szczepaniuk, Inżynier Observability w Linux Polska.
Organizacje wiążą z narzędziami AI nadzieję na przyspieszenie standardowych zadań operacyjnych, redukcję kosztów i zwiększenie efektywności działań. Sztuczna inteligencja z pewnością jest krokiem w kierunku transformacji cyfrowej przedsiębiorstw. Jednak pominięcie analizy ryzyka podczas wdrożenia nowych rozwiązań, a także brak stałej kontroli nad ich bezpieczeństwem, mogą przysporzyć firmom więcej szkody niż pożytku.
[1] CERT Polska, Podsumowanie miesiąca – luty 2026
[2] World Economic Forum, Global Cybersecurity Outlook 2026
[3] Jak wyżej.
[4] Jak wyżej.
[5] Jak wyżej.
[6] Linux Foundation, The Economic and Workforce Impacts of Open Source AI
[7] Jak wyżej.
[8] World Economic Forum, Global Cybersecurity Outlook 2026
[9] Jak wyżej.