22 listopada podczas konferencji ATS miałem przyjemność poprowadzić w ramach sesji roundtables dyskusję pt. „socjotechniki AD 2023 z punktu widzenia narzędzi i schematów działania„. Podczas dyskusji staraliśmy się odpowiedzieć na pytania:
- Co dzisiaj udaje się cyberprzestępcom – jakie ich schematy działania i wykorzystywane narzędzia są najbardziej skuteczne.
- Co przyniesie upowszechnienie wykorzystania w atakach symulowanego użytkownika – napędzanego narzędziami AI?
Dziękuję wszystkim, którzy zdecydowali się wziąć udział w tej sesji. Nasz stolik okazał się najbardziej obleganym i zgromadził aż kilkadziesiąt osób. Poniżej postaram się zawrzeć najistotniejsze wnioski z naszej dyskusji.
Co dzisiaj udaje się przestępcom?
Na początek trochę statystyk, które raczej nikogo nie zaskoczą, ponieważ są niezmienne od lat. Według ostatniego raportu CERT Polska „Krajobraz bezpieczeństwa polskiego internetu w 2022 roku” oszustwa komputerowe stanowią 88% wszystkich incydentów bezpieczeństwa, a 64% z nich to wciąż kampanie phishingowe.
Z moich obserwacji, którymi postanowiłem się podzielić, na uwagę zasługuje jednak również inna grupa oszustw, do której należą m.in.:
- Tzw. oszustwa „na bankowca” i „na policjanta”, w których przestępcy podszywają się w rozmowach telefonicznych pod pracowników banku lub jednostek policji ds. cyberprzestępczości
- Fałszywe platformy inwestycyjne gwarantujące ponadprzeciętne stopy zwrotu
- Romance scam – oszustwa bazujące na wyłudzeniach od osób, z którymi zbudowana została relacja zaufania
Tego typu oszustwa zaczęły zyskiwać na popularności mniej więcej od czasu, w którym banki zostały zobowiązane do wdrożenia mechanizmów uwierzytelniania dwuskładnikowego. Wynika to zapewne z faktu, że trochę trudniej jest teraz okraść kogoś mając tylko jego login i hasło do banku wyłudzone w ataku phishingowym.
Przestępcy sięgnęli więc po nowe scenariusze. Zauważyć jednak trzeba, że wymienione wyżej techniki oszustw mają pewien element wspólny: wymagają bezpośredniej interakcji na linii złodziej – ofiara, angażując czas tego pierwszego. Mimo więc, iż działania tego typu są intratne, ich skalowanie nie jest tak proste, jak to ma miejsce w przypadku ataków zautomatyzowanych. I tutaj pojawia się pole do popisu dla nowych narzędzi bazujących na AI, które dla nas staną się jednocześnie poważnym zagrożeniem.
Przestępstwa z wykorzystaniem AI już mają miejsce
Na razie jeszcze nie na masową skalę, ale oszustwa komputerowe z wykorzystaniem sztucznej inteligencji są już odnotowywane. Oto kilka przykładów:
- Wyłudzenie 243 tys. dolarów za pomocą nagrania głosowego wygenerowanego przy użyciu technologii deep fake (źródło)

- Virtual kidnapping – próba wyłudzenia okupu za pomocą wygenerowanego technologią deep fake nagrania video lub głosowego przedstawiającego rzekomo porwane dziecko (źródło)

- Trochę jeszcze nieudolny, ale jest też przykład z naszego podwórka – deep fake z Aleksandrem Kwaśniewskim zachęcającym do bardzo zyskownych inwestycji:
Czego należy się spodziewać w najbliższym czasie?
Biorąc pod uwagę fakt, że opisane wcześniej scenariusze bazujące na bezpośredniej interakcji przestępcy z ofiarą są dość zyskowne, a jednocześnie przestępcy już zaczynają wykorzystywać technologie AI, należy się spodziewać, że z jej pomocą uda im się wkrótce zautomatyzować tego typu ataki i przeprowadzać je na masową skalę.
Co jednak najgorsze, to narzędzia typu chatGPT drastycznie wpłyną na wiarygodność i skuteczność tego typu kampanii z kilku co najmniej względów:
- Pozwolą na analizę danych w celu lepszego doboru grupy docelowej
- Pozwolą generować treści o dużo lepszej jakości (bez błędów tłumaczeniowych, które obecnie pozwalają nabrać pewnych podejrzeń)
- Pozwolą generować treści dużo bardziej sugestywne i przekonujące. Ich język będzie mógł być idealnie dopasowany do odbiorcy, jego środowiska zawodowego, statusu społecznego, gwary itd.
- Pozwolą na automatyzację działań przestępców i zastąpienie ich agentami w kontaktach na czacie lub telefonie
Jednym z poważniejszych zagrożeń, o których wspomina się w kontekście technologii deep fake jest też możliwość wykorzystania jej do masowej dezinformacji. Sensacyjne doniesienia wypowiadane ustami znanych polityków mogą prowadzić do masowej paniki, wywoływać niepokoje społeczne, a nawet prowadzić do paraliżu działania instytucji państwowych. Z takiej sposobności na pewno nie zawaha się skorzystać niejedna ze stron toczących się na świecie konfliktów.
Jak się bronić przed oszustwami z wykorzystaniem AI?
Na obecną chwilę dostępność technik, czy nawet zaleceń i dobrych praktyk w tym zakresie jest dość skąpa. W 2019 roku Microsoft, Facebook i Amazon zainicjowały działanie grupy DFDC (Deepfake Detection Challenge), której celem jest opracowanie metod rozpoznawania materiałów wygenerowanych przez deepfake. W 2020 roku skuteczność narzędzi (również bazujących na AI) wynosiła ok. 65%. To zdecydowanie za mało by móc na nich bazować jako na wiarygodnych.
Firmy zajmujące się śledzeniem zagrożeń w przypadku oszustw typu virtual kidnapping sugerują poniższe środki zapobiegawcze:
- Zwracanie uwagi na to w co są ubrani nasi bliscy opuszczając dom (by później móc to porównać z nagraniem z rzekomego porwania).
- Wzajemne udostępnianie swojej lokalizacji innym domownikom (np. poprzez Google Maps) – może się to przydać również w wielu innych sytuacjach.
- Zwracanie uwagi na szczegóły typu lekko zmieniony głos, monotoniczność wypowiedzi.
- Podejrzenia powinny też wzbudzić rozmowy na żywo, w których jednak wydaje się, że druga strona wypowiada się według określonego scenariusza i nie odpowiada na nasze pytania.
Z dyskusji przy naszym stole tematycznym dowiedzieliśmy się też, że nasze obawy powinny budzić już nie tylko nagrania deep fake przygotowane wcześniej, ale też takie, które są generowane na żywo. W tym wypadku możliwa jest pełna interakcja z osobą, której wizerunek zostanie wykorzystany (np. podczas zaaranżowanej wideokonferencji). Metodą weryfikacji może być w tym wypadku poproszenie rozmówcy o wykonanie jakiejś specyficznej czynności typu umieszczenie cukierka w ustach. W tym wypadku algorytmy AI nie poradzą sobie tak dobrze z generowaniem obrazu (przynajmniej na razie).
Poza tym, tak jak w przypadku innych socjotechnik, zalecana jest drobiazgowość w ocenie szczegółów i powściągliwość w podejmowaniu pochopnych decyzji bazujących na emocjach.
Ataki socjotechniczne są niezwykle skuteczne
Na koniec warto podsumować, iż w przypadku ataków socjotechnicznych nie powinniśmy się zastanawiać czy pracownicy naszych firm są na nie podatni, a raczej jak bardzo są podatni. Z przeprowadzanych przeze mnie testów phishingowych wynika, iż skuteczność takiego ataku w nieprzygotowanej organizacji może sięgać 30-40%, a w niektórych przypadkach nawet 50%. W błędzie są jednak firmy, które uważają, iż problem ten wyeliminowały realizując w przeszłości jedno szkolenie. Dopiero dobrze zaplanowana edukacja pracowników i regularne szkolenia security awareness potrafią obniżyć to ryzyko do wartości poniżej 10%. To nadal sporo, ale z punktu widzenia bezpieczeństwa jest to już znaczna różnica. Oznacza bowiem, że przeciętny intruz aby wyłudzić hasło od któregoś z pracowników zamiast 2-3 maili musi ich wysłać minimum 10. A to daje dużo większe szanse na wykrycie i zgłoszenie incydentu przez bardziej ostrożne osoby.