Sztuczna inteligencja w socjotechnikach

Socjotechniki a rozwój narzędzi AI – co nas czeka?

22 listopada podczas konferencji ATS miałem przyjemność poprowadzić w ramach sesji roundtables dyskusję pt. „socjotechniki AD 2023 z punktu widzenia narzędzi i schematów działania„. Podczas dyskusji staraliśmy się odpowiedzieć na pytania:

  • Co dzisiaj udaje się cyberprzestępcom – jakie ich schematy działania i wykorzystywane narzędzia są najbardziej skuteczne.
  • Co przyniesie upowszechnienie wykorzystania w atakach symulowanego użytkownika – napędzanego narzędziami AI?

Dziękuję wszystkim, którzy zdecydowali się wziąć udział w tej sesji. Nasz stolik okazał się najbardziej obleganym i zgromadził aż kilkadziesiąt osób. Poniżej postaram się zawrzeć najistotniejsze wnioski z naszej dyskusji.

Co dzisiaj udaje się przestępcom?

Na początek trochę statystyk, które raczej nikogo nie zaskoczą, ponieważ są niezmienne od lat. Według ostatniego raportu CERT Polska „Krajobraz bezpieczeństwa polskiego internetu w 2022 roku” oszustwa komputerowe stanowią 88% wszystkich incydentów bezpieczeństwa, a 64% z nich to wciąż kampanie phishingowe.

Z moich obserwacji, którymi postanowiłem się podzielić, na uwagę zasługuje jednak również inna grupa oszustw, do której należą m.in.:

  • Tzw. oszustwa „na bankowca” i „na policjanta”, w których przestępcy podszywają się w rozmowach telefonicznych pod pracowników banku lub jednostek policji ds. cyberprzestępczości
  • Fałszywe platformy inwestycyjne gwarantujące ponadprzeciętne stopy zwrotu
  • Romance scam – oszustwa bazujące na wyłudzeniach od osób, z którymi zbudowana została relacja zaufania

Tego typu oszustwa zaczęły zyskiwać na popularności mniej więcej od czasu, w którym banki zostały zobowiązane do wdrożenia mechanizmów uwierzytelniania dwuskładnikowego. Wynika to zapewne z faktu, że trochę trudniej jest teraz okraść kogoś mając tylko jego login i hasło do banku wyłudzone w ataku phishingowym.

Przestępcy sięgnęli więc po nowe scenariusze. Zauważyć jednak trzeba, że wymienione wyżej techniki oszustw mają pewien element wspólny: wymagają bezpośredniej interakcji na linii złodziej – ofiara, angażując czas tego pierwszego. Mimo więc, iż działania tego typu są intratne, ich skalowanie nie jest tak proste, jak to ma miejsce w przypadku ataków zautomatyzowanych. I tutaj pojawia się pole do popisu dla nowych narzędzi bazujących na AI, które dla nas staną się jednocześnie poważnym zagrożeniem.

Przestępstwa z wykorzystaniem AI już mają miejsce

Na razie jeszcze nie na masową skalę, ale oszustwa komputerowe z wykorzystaniem sztucznej inteligencji są już odnotowywane. Oto kilka przykładów:

  • Wyłudzenie 243 tys. dolarów za pomocą nagrania głosowego wygenerowanego przy użyciu technologii deep fake (źródło)
wyłudzenie 243 tys. dolarów przez fałszywe nagranie głosu prezesa firmy
  • Virtual kidnapping – próba wyłudzenia okupu za pomocą wygenerowanego technologią deep fake nagrania video lub głosowego przedstawiającego rzekomo porwane dziecko (źródło)
przypadek virtual kidnappingu opisany przez CNN
  • Trochę jeszcze nieudolny, ale jest też przykład z naszego podwórka – deep fake z Aleksandrem Kwaśniewskim zachęcającym do bardzo zyskownych inwestycji:
https://twitter.com/marian_baczal/status/1720034631582458079

Czego należy się spodziewać w najbliższym czasie?

Biorąc pod uwagę fakt, że opisane wcześniej scenariusze bazujące na bezpośredniej interakcji przestępcy z ofiarą są dość zyskowne, a jednocześnie przestępcy już zaczynają wykorzystywać technologie AI, należy się spodziewać, że z jej pomocą uda im się wkrótce zautomatyzować tego typu ataki i przeprowadzać je na masową skalę.

Co jednak najgorsze, to narzędzia typu chatGPT drastycznie wpłyną na wiarygodność i skuteczność tego typu kampanii z kilku co najmniej względów:

  • Pozwolą na analizę danych w celu lepszego doboru grupy docelowej
  • Pozwolą generować treści o dużo lepszej jakości (bez błędów tłumaczeniowych, które obecnie pozwalają nabrać pewnych podejrzeń)
  • Pozwolą generować treści dużo bardziej sugestywne i przekonujące. Ich język będzie mógł być idealnie dopasowany do odbiorcy, jego środowiska zawodowego, statusu społecznego, gwary itd.
  • Pozwolą na automatyzację działań przestępców i zastąpienie ich agentami w kontaktach na czacie lub telefonie

Jednym z poważniejszych zagrożeń, o których wspomina się w kontekście technologii deep fake jest też możliwość wykorzystania jej do masowej dezinformacji. Sensacyjne doniesienia wypowiadane ustami znanych polityków mogą prowadzić do masowej paniki, wywoływać niepokoje społeczne, a nawet prowadzić do paraliżu działania instytucji państwowych. Z takiej sposobności na pewno nie zawaha się skorzystać niejedna ze stron toczących się na świecie konfliktów.

Jak się bronić przed oszustwami z wykorzystaniem AI?

Na obecną chwilę dostępność technik, czy nawet zaleceń i dobrych praktyk w tym zakresie jest dość skąpa. W 2019 roku Microsoft, Facebook i Amazon zainicjowały działanie grupy DFDC (Deepfake Detection Challenge), której celem jest opracowanie metod rozpoznawania materiałów wygenerowanych przez deepfake. W 2020 roku skuteczność narzędzi (również bazujących na AI) wynosiła ok. 65%. To zdecydowanie za mało by móc na nich bazować jako na wiarygodnych.

Firmy zajmujące się śledzeniem zagrożeń w przypadku oszustw typu virtual kidnapping sugerują poniższe środki zapobiegawcze:

  • Zwracanie uwagi na to w co są ubrani nasi bliscy opuszczając dom (by później móc to porównać z nagraniem z rzekomego porwania).
  • Wzajemne udostępnianie swojej lokalizacji innym domownikom (np. poprzez Google Maps) – może się to przydać również w wielu innych sytuacjach.
  • Zwracanie uwagi na szczegóły typu lekko zmieniony głos, monotoniczność wypowiedzi.
  • Podejrzenia powinny też wzbudzić rozmowy na żywo, w których jednak wydaje się, że druga strona wypowiada się według określonego scenariusza i nie odpowiada na nasze pytania.

Z dyskusji przy naszym stole tematycznym dowiedzieliśmy się też, że nasze obawy powinny budzić już nie tylko nagrania deep fake przygotowane wcześniej, ale też takie, które są generowane na żywo. W tym wypadku możliwa jest pełna interakcja z osobą, której wizerunek zostanie wykorzystany (np. podczas zaaranżowanej wideokonferencji). Metodą weryfikacji może być w tym wypadku poproszenie rozmówcy o wykonanie jakiejś specyficznej czynności typu umieszczenie cukierka w ustach. W tym wypadku algorytmy AI nie poradzą sobie tak dobrze z generowaniem obrazu (przynajmniej na razie).

Poza tym, tak jak w przypadku innych socjotechnik, zalecana jest drobiazgowość w ocenie szczegółów i powściągliwość w podejmowaniu pochopnych decyzji bazujących na emocjach.

Ataki socjotechniczne są niezwykle skuteczne

Na koniec warto podsumować, iż w przypadku ataków socjotechnicznych nie powinniśmy się zastanawiać czy pracownicy naszych firm są na nie podatni, a raczej jak bardzo są podatni. Z przeprowadzanych przeze mnie testów phishingowych wynika, iż skuteczność takiego ataku w nieprzygotowanej organizacji może sięgać 30-40%, a w niektórych przypadkach nawet 50%. W błędzie są jednak firmy, które uważają, iż problem ten wyeliminowały realizując w przeszłości jedno szkolenie. Dopiero dobrze zaplanowana edukacja pracowników i regularne szkolenia security awareness potrafią obniżyć to ryzyko do wartości poniżej 10%. To nadal sporo, ale z punktu widzenia bezpieczeństwa jest to już znaczna różnica. Oznacza bowiem, że przeciętny intruz aby wyłudzić hasło od któregoś z pracowników zamiast 2-3 maili musi ich wysłać minimum 10. A to daje dużo większe szanse na wykrycie i zgłoszenie incydentu przez bardziej ostrożne osoby.

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.