„Fałszywy wnuczek” - nowa era oszustw finansowych w dobie AI
„Fałszywy wnuczek” - nowa era oszustw finansowych w dobie AI
Oszustwa „na wnuczka” czy „na policjanta” są niezmiennie jedną z najczęstszych metod wyłudzeń. Tylko w 2024 roku policja odnotowała blisko 4000 takich przestępstw[1], a pod koniec roku rozbito szajkę działającą na terenie ośmiu europejskich krajów. Oszuści wyłudzili od seniorów w sumie prawie 5 milionów euro[2]. Scenariusz zawsze jest podobny – telefon i prośba o pilną pomoc finansową. Zorganizowanej akcji towarzyszy wzbudzenie silnych emocji u poszkodowanych, co ma na celu wymuszenie szybkiej decyzji. Zjawisko to wciąż występuje bardzo powszechnie, jednak wraz z rozwojem technologii, naciągacze stają się coraz bardziej wyrafinowani. Z wykorzystaniem sztucznej inteligencji manipulują poszkodowanymi, tworząc teksty i nagrania do złudzenia przypominające wiadomości od bliskich. Coraz trudniej odróżnić prawdę od fałszu, a w grę wchodzą oszczędności całego życia. Podstawą obrony jest edukacja, wielopoziomowe uwierzytelnianie i szybkie zgłaszanie podejrzanych sytuacji odpowiednim instytucjom.
Sztuczna inteligencja daje praktycznie nieograniczone możliwości. Pozwala tworzyć wyglądające realistyczne, lecz fałszywe obrazy, nagrania wideo oraz audio. Jednym z najgroźniejszych przykładów jest tzw. deepfake — technologia wykorzystująca algorytmy AI do generowania lub modyfikowania wizerunku i głosu w taki sposób, że materiały wyglądają i brzmią niemal identycznie jak prawdziwe. Pojęcie deepfake jest znane 42% Polaków, z czego 40% miało z nimi styczność[3]. Telefon, wiadomość głosowa czy zmodyfikowane wideo mogą wydawać się tak wiarygodne, że trudno odróżnić prawdę od fałszu, a prośba o pilny przelew potrafi wywołać natychmiastową reakcję.
Jak działają oszuści?
Z próbą wyłudzenia pieniędzy lub danych online zetknęło się 31% seniorów aktywnych cyfrowo[4]. Oszuści coraz częściej nie tylko opowiadają historię o wypadku czy nagłej potrzebie. Teraz dzięki technologii wręcz „stają się osobą”, którą poszkodowany naprawdę zna. Sztuczna inteligencja powala między innymi na klonowanie głosu czy wizerunku i użycie go w spreparowanym nagraniu audio lub wideo, co wzmacnia poczucie autentyczności i sprawia, że poszkodowany może być jeszcze bardziej podatny na manipulacje. W takich sytuacjach czas na decyzję zostaje celowo skrócony do minimum: dramatyczna relacja o aresztowaniu, wypadku czy hospitalizacji ma wywołać panikę i doprowadzić do natychmiastowego przelewu, podania kodu autoryzacyjnego czy przekazania gotówki kurierowi. Zdarzają się także próby szantażu — groźby upublicznienia fałszywego materiału, rzekomo kompromitującego ofiarę lub jej bliskich, jeśli natychmiast nie zostaną przekazane pieniądze. W tle często dochodzi do przejęcia kont w komunikatorze, co uniemożliwia szybkie zweryfikowanie informacji u prawdziwych bliskich za pomocą tych kanałów.
Coraz częściej pojawiają się także kampanie phishingowe, które wykorzystują deepfake’i, by podawać się za instytucje finansowe. W ciągu ostatniego półtora roku, odnotowano 488 poważnych incydentów[5] od osób, które zdecydowały się je zgłosić. Możliwe, że to jedynie kropla w morzu, w porównaniu z przestępstwami, które nie pojawiają się w policyjnych statystykach. Tylko w 2024 roku zgłoszono do zablokowania ponad 51 tys. domen phishingowych, co oznacza wzrost o blisko 70% od 2022 do 2024 roku[6]. Te dane pokazują, że oszuści za wszelką cenę próbują ominąć system, nawet w poważnych instytucjach.
- Oszustwa finansowe przybierają dziś formy niemal niewidoczne dla przeciętnego klienta. Konsekwencje takich działań bywają poważne – od nieautoryzowanych transakcji i ujawnienia danych, przez utratę środków, a w skrajnych przypadkach zagrożone jest bezpieczeństwo, a nawet zdrowie ofiary. Dlatego edukacja i świadomość są kluczowe – – podkreśla Michał Pyziołek, ekspert Intrum.
Co zrobić, by nie dać się naciągnąć?
Jednym z rozwiązań, by uchronić się przed niepokojącym zdarzeniem, może być ustalenie z bliskimi tzw. pytań bezpieczeństwa, na które nikt z zewnątrz nie byłby w stanie udzielić odpowiedzi. Jeżeli jednak dojdzie już do rozmowy z potencjalnym naciągaczem najważniejsze jest zachowanie zimnej krwi. W sytuacji, gdy ktoś rzekomo będący naszym bliskim prosi o pomoc, postarajmy się zweryfikować w najlepszy dostępny nam sposób, czy rozmawiamy z prawdziwą osobą. Poszukajmy dodatkowego sposobu kontaktu, potwierdźmy przekazane nam informacje u innych.
- Warto zwrócić też uwagę na techniczną stronę komunikatu lub nagrania. Technologia daje ogromne możliwości, cały czas się rozwija i dopasowuje do odbiorcy, jednak nie jest pozbawiona wad. W treściach, które są tworzone przez sztuczną inteligencję nadal pojawiają się błędy. W rozmowach z użyciem wideo pojawiają się zniekształcenia między innymi w okolicach ust, a także dłoni, zbyt duża lub zbyt mała liczba palców u rąk. W fałszywych nagraniach pojawiają się również problemy uzębienia, mimiką, czy nietypowej intonacji. Takie wiadomości często zawierają szumy i plamy. Wszystko po to, by ukryć ewentualne mankamenty – – podkreśla Michał Pyziołek, ekspert Intrum.
W stresie trudno myśleć racjonalnie, jednak to właśnie zdrowy rozsądek i szybka reakcja mogą uchronić nas przed zagrożeniem. Jeśli cokolwiek wzbudzi nasze podejrzenia, powinniśmy natychmiast zakończyć rozmowę i jak najszybciej skontaktować się z bankiem, aby potwierdzić, czy nie padliśmy ofiarą próby wyłudzenia. Jeśli podejrzewamy, że nasz dane są zagrożone, zablokujmy konto.
Po zabezpieczeniu siebie dobrze jest pomyśleć także o innych. W ten sposób przed próbą wyłudzenia i oszustwa ochronimy nie tylko kolejne osoby, ale może i siebie w przyszłości. Każdą podejrzaną sytuację należy zgłaszać odpowiednim organom. Można to zrobić poprzez stronę internetową www.incydent.cert.pl lub wysyłając SMS do zespołu CERT Polska pod numer 8080.
[1] https://policja.pl/pol/aktualnosci/255581,Babciu-i-Dziadku-Uwazajcie-na-oszustow.html, KMP Policji 2024
[2] https://policja.pl/pol/aktualnosci/254174,Oszukiwali-niemieckich-seniorow-Wpadli-w-Warszawie.html
[3] Dezinformacja Oczami Polaków, Edycja 2024
[4] Seniorzy w świecie finansów 2025
[5] Cyberbezpieczny portfel, Raport 2024
[6] Tamże