ChatGPT i sztuczna inteligencja

ChatGPT – czy stanowi zagrożenie?

Koniec ubiegłego roku zaskoczył nas nową odsłoną sztucznej inteligencji. Tylko czy na pewno? Czy na pewno zaskoczył? I czy na pewno sztuczną inteligencją? A to wszystko za sprawą programu chatGPT, o którym zrobiło się głośno. Są też inne jemu podobne. Takie, o których wiemy. Jednak w życiu i pędzie codziennym, nie zwracamy na nie uwagi. Nad sztuczną inteligencją pracują m.in. takie firmy jak Amazon, Meta czy Google. I wiele innych, mniej znanych. Jak startup Anthropic, założony przez byłych pracowników Open AI. Opracowali oni program Claude, który jest wzorowany na chatGPT, ale który jest jego udoskonaloną wersją. Są też inne jak na przykład Lensa AI i im podobne, w tym polski SentiOne(!). Na ich przykładzie widać, jak dokładne są dziś algorytmy i co potrafią. Ale wróćmy do tego programu, o którym szczególnie głośno było ostatnio, czyli do chatGPT. Świat zwariował pod koniec 2022r. na jego punkcie. Ludzie zadają mu pytania, on odpowiada. Odpowiada lepiej i bardziej naturalnie niż inne programy. Czy to wyjątkowe narzędzie? Nie jest wyjątkowe, bo są już podobne, a nawet lepsze programy tego typu. Jest on kolejnym krokiem zbliżającym nas do stworzenia lepszej i doskonalszej sztucznej inteligencji. Jednak nią nie jest. Jest to model językowy odbierany jako sztuczna inteligencja. A jednak to jemu towarzyszą emocje. Czy rozwiąże wiele naszych problemów? Czy nie stanowi zagrożenia? I czym jest ten chatGPT?

Czym jest chatGPT

I od tego ostatniego pytania zaczniemy przybliżenie tego tematu. Jednak za nim wyjaśnię fenomen chatGPT wyjaśnię, czym jest chatbot. Wikipedia podaje nam, że:

„Chatbot (chatterbot lub linguabot) to program komputerowy, którego zadaniem jest prowadzenie konwersacji z udziałem komputera, który replikuje zachowania ludzkie, np. automatyzując odpowiedzi na powtarzalne pytania. Najprostsze boty wykorzystują schematy blokowe… Zadaniem chatbota jest automatyzacja powtarzalnych i przewidywalnych zadań i procesów w dużej skali. Chatboty pomagają także budować spersonalizowane doświadczenia klientów. Wykorzystywane na stronach internetowych, w komunikatorach jak Messenger, WeChat, Telegram, WhatsApp, jako asystenci głosowi (Asystent Google, Alexa Amazona), ale także jako wirtualni asystenci w postaci robota. Chatboty z powodzeniem działają w takich branżach jak obsługa klienta, sprzedaż, kampanie marketingowe czy edukacja.

Dzisiaj chatboty doszły do momentu, w którym usprawniają proces pomocy technicznej, odpowiadając na często zadawane pytania, planując spotkania i realizując zamówienia. Obszar chatbotów związany jest z rozwojem sztucznej inteligencji, uczenia maszynowego oraz silników do przetwarzania i generowania języka naturalnego (Natural Language Generation)”.

Skoro już wiemy, czym jest chatbot, to możemy zapoznać się z definicją chatGPT. I znów za wikipedią:

„ChatGPT – ( Generative Pre-trained Transformer ) to chatbot wykorzystujący model języka GPT-3 opracowany przez OpenAI, służący do generowania odpowiedzi na dane wprowadzane przez użytkownika. Model ten został opracowany na podstawie dużych zbiorów danych, aby prowadzić rozmowę i może angażować się w różne tematy, od ogólnych rozmów po określone obszary wiedzy.

ChatGPT został uruchomiony jako prototyp 30 listopada 2022 i szybko zwrócił na siebie uwagę”.

Jednym słowem firma Open AI (taka ciekawostka: jest to firma załozona przez Sama Altmana, Elona Muska, Grega Brockmana, Ilję Sutskevera, Johna Schulmana i Wojciecha Zarembę (!), w 2015 roku) udostępniła użytkownikom chatbox, czyli takiego wirtualnego asystenta. Jest to jeden z rodzajów chatbotów. Model chatGPT to bot typu „pytanie – odpowiedź”. Tego typu algorytm może nie tylko wyszukiwać dla nas informacje, ale również tworzyć swoje odpowiedzi na zadane pytanie. Robi to bardziej naturalnie, czerpiąc z pozyskanej wiedzy. I to jest ta nowość, czy nowa jakość wśród programów tego typu. Czy jest to rewolucja? Stanowczo nie. Jest to ewolucja. Innowacja.

ChatGPT a bezpieczeństwo

A co z bezpieczeństwem? Co z bezpieczeństwem danych? Jakie niesie za sobą zagrożenia?

I znów za wikipedią:

„Check Point Research i inni zauważyli, że ChatGPT był w stanie pisać e-maile phishingowe i złośliwe oprogramowanie, zwłaszcza w połączeniu z Open AI i Codex. Dyrektor generalny Open AI, twórcy ChatGPT, Sam Altman, napisał, że rozwijające się oprogramowanie może stanowić „(na przykład) ogromne zagrożenie bezpieczeństwa cybernetycznego”, a także kontynuował przewidywanie, że „możemy przejść do prawdziwego AGI (sztuczna ogólna inteligencja) w następnej dekadzie, więc musimy bardzo poważnie podejść do tego ryzyka”.

Jak widać może ono służyć do tworzenia treści phishingowych w e-mailach lub na stronach internetowych. Może zostać użyte do napisania e-maila ze szkodliwym załącznikiem. Może to być e-mail z treścią indywidualnie napisaną pod konkretny cel, np. w e-mailu „bankowym” namawiającym do potwierdzenia swoich danych. Tak naprawdę jednak przenoszącego odbiorcę na fałszywą stronę internetową. Innym przykładem może być e-mail lub sms z informacją o nieopłaceniu rachunku. Kliknięcie w odnośnik spowoduje jednak przeniesienie odbiorcy na fałszywą stronę internetową.

Może też ono asystować w tworzeniu złośliwego oprogramowania używanego do ataków. Możemy zlecić mu napisanie „kawałka” kodu odpowiedzialnego za wykonanie określonych czynności. Dla przykładu może być wykorzystany do tworzenia narzędzi służących do kradzieży informacji. Może wykonywać czynności powtarzalne? Może wykonywać czynności automatyczne? To dlaczego nie wykorzystać go do wykonywania ataków typu DDoS? Internet zostanie zalany odpowiednimi treściami. Generował je będzie chatbox. Może również zostać użyty do tworzenia innych programów.

Ludzie w sieci udostępniają różne dane o sobie i innych. Często (zupełnie nieświadomie) są to dane wrażliwe. Dane takie można pozyskać ze źródeł otwartych, z wycieków z baz danych lub włamań do systemów. Program chatGPT może zostać użyty do zbierania tych danych udostępnianych przez ludzi w sieci. Później do przetwarzania tych danych. Uczy się z informacji, które mu dostarczymy w bazach danych. Można te dane później wykorzystać do kampanii reklamowych. Można użyć ich w różnych środkach przekazu, np.: Facebook, e-maile itd. Wystarczy na ich podstawie stworzyć szablony kampanii. Chatbot będzie tworzył teksty postów w mediach społecznościowych, artykułów, opinii, komentarzy i innych publikacji.

[Przy okazji, zerknijcie na nasz eksperyment z artykułem napisanym przez copy.ai: „Ten artykuł napisała sztuczna inteligencja” – został on w całości (również grafika tytułowa) stworzony przez boty.]

Dane będą wyglądać autentycznie. Nie da się ich odróżnić od pracy człowieka. A co z weryfikacją informacji? Z ich prawdziwością? Odbiorca nie zweryfikuje tych informacji. Nie będzie szukał ich potwierdzenia. Zostanie wprowadzony w błąd. Jeśli wprowadzimy błędne, czy fałszywe dane, to będzie to szkodliwe działanie. Program jednak uzna je za normalne, zwykłe. Odpowiedzi będą właściwe dla informacji, które mu dostarczyliśmy. Będą wprowadzać w błąd. Tak będzie szerzyć się fałsz. Dlatego nie wolno podawać mu żadnych informacji, żadnych danych, których nie chcemy upublicznić czy udostępnić. Takich danych, których nie chcemy ujawnić.

ChatGPT a działania dezinformacyjne

Oprogramowanie tego typu może zostać również użyte do tworzenia i głoszenia treści obraźliwych. Może powielać uprzedzenia i stereotypy. Mogą być za jego pomocą realizowane kampanie nastawione na podziały, szkalujące i wprowadzające w błąd w mediach społecznościowych. Mogą być tworzone fałszywe strony internetowe, podszywające się pod prawdziwe źródła informacji. Może być szerzony fałsz i kłamstwo na masową skalę. Może to doprowadzić do zwiększenia zasięgu operacji informacyjnych i agitacyjnych. Tego typu oprogramowanie może zostać zaangażowane do szerzenia propagandy. Może zostać zaangażowane do głoszenia tez właściwych dla celów operacji czy to rosyjskiej, czy chińskiej. Idąc dalej, może również zostać wykorzystane jako narzędzie wspomagające działania hybrydowe. Działania takie to podejście do siania chaosu, w sposób zorganizowany poniżej progu wojny. Mogą to być dla przykładu działania informacyjne, propagandowe, analityczne czy działania związane z atakami cybernetycznymi. Działania powyższe mogą dotyczyć w szczególności infrastruktury krytycznej oraz usług kluczowych dla funkcjonowania państwa i jego obywateli. Dlatego struktury międzynarodowe, jak i każde państwo z osobna, będą musiały ponownie przemyśleć politykę podejścia do dezinformacji. Przemyśleć, zmienić, poprawić i znowelizować.

Jak widać chatGPT może być narzędziem w rękach przestępców. Daje możliwości, które mogą się im przydać.

Czy sztuczna inteligencja zabierze nam pracę?

Programy tego typu niosą ze sobą potencjalne zagrożenia. Jednak wszystkie innowacje w historii też były tak postrzegane. A jakoś ludzkość była w stanie nad nimi zapanować. Ujarzmić je. Ludzkość przetrwała, a innowacje ułatwiły nam życie. Przysparzały problemów, a ludzie je rozwiązywali. Przykładem może być zmiana struktury rynku, która nastąpiła wraz z nadejściem epoki przemysłowej, na przełomie XVIII i XIX wieku. Wtedy to nastąpił proces zmian, związany z przejściem z gospodarki opartej na produkcji wytwarzanej rzemieślniczo i w manufakturach, na produkcję w fabrykach na skalę przemysłową. Pojawiła się maszyna parowa, która zastąpiła maszyny napędzane siłą mięśni czy kołem wodnym. Pojawiły się maszyny tkackie, które zastąpiły, czy zminimalizowały, tkactwo ręczne. Zmienił się charakter rynku, w związku z pojawieniem się innowacji. Jedne zawody zniknęły, inne się pojawiły. Ludzie nie wyrabiali przędzy, robiły to za nich maszyny. Jednak do ich obsługi potrzebny był człowiek. To jest ewolucja i nie należy się tego bać. Tak jak nie należy obawiać się o znikanie zawodów, tak też nie należy obawiać się o miejsca pracy. Jedne znikną, pojawią się nowe. To tylko (albo aż) kwestia dostosowania do nowych realiów rynkowych, które wymusi tego typu oprogramowanie.

Sztuczna inteligencja i zagrożenia

Poza możliwościami, jakie niesie ze sobą używanie programów typu chatGPT, istnieją zagrożenia, których nie brakuje. Narzędzia tego typu przyspieszą rozwój cyber zagrożeń w przyszłości. Programy tego typu będą narzędziem dla cyberprzestępców. Trzeba przygotować się na to. Stopniowo trzeba zmieniać metody ochrony, adaptując się do zmieniającego się środowiska i rzeczywistości.

Nie można bagatelizować tego problemu. Sztuczna inteligencja (tak jak ją dziś rozumiemy) dzisiaj nadal niedopracowana, w przyszłości może stanowić spory problem. Już dzisiaj dysponuje niemałymi możliwościami, choć nadal wymaga jeszcze wielu ulepszeń. Roboty udzielające precyzyjnych odpowiedzi na zadane pytania, mogą być przyszłością Internetu. Wiadomo, że programy tego typu, dając duże możliwości, będą rozwijane. Dla przykładu, po zainwestowaniu 1mld $ pięć lat temu, teraz Microsoft przeznaczył 10mld $ na inwestycje we właściciela chatGPT, czyli firmę Open AI. Planuje również integrację tego programu z wyszukiwarką Bing i asystentem Cortana. Można domyślać się, że zastosuje to rozwiązanie również w pakiecie Office i innych swoich usługach.

Sztuczna inteligencja ze swoimi obecnymi możliwościami daje szansę wykonywania coraz bardziej skomplikowanych zagadnień. Fakt, że szybciej niż inne narzędzia, których używaliśmy do tej pory. W przyszłości będzie mogła więcej, szybciej i w bardziej skomplikowany sposób. Trzeba jednak mieć na względzie dwie rzeczy. Pierwsza: Sztuczna inteligencja ma wspierać człowieka w jego działaniach, a nie go zastąpić. Ma nas wspomagać. Ma być naszym asystentem. Druga kwestia: to od nas zależy, jak i do czego ją wykorzystamy. Źli ludzie będą ją wykorzystywać do złych rzeczy i w złych celach. Dobrzy wręcz przeciwnie. Terroryści do osiągania swoich niecnych celów. Przestępcy do włamań i kradzieży. Lekarze do diagnostyki. Analitycy do analizy. Ludzie zajmujący się cyberbezpieczeństwem do dokładniejszego zabezpieczania przed potencjalnymi atakami. Do szybszej analizy zagrożeń i szacowania podatności. A na końcu zawsze powinien być człowiek, który to, co dostarczy mu algorytm, zanalizuje i podejmie decyzję. W oparciu o kontekst, którego przynajmniej na razie sztuczna inteligencja ogarnąć nie potrafi. Uczy się z informacji, które mu dostarczymy w bazach danych. Nie osadza informacji w kontekście. W rezultacie może wprowadzać w błąd. Odpowiedzi, mogą być mylące lub niejasne. Mogą one zawierać fałszywe informacje, prowadząc do dezinformacji.

ChatGPT sam w sobie nie jest niebezpieczny. Niebezpieczny jest ten, kto używa go do nielegalnych, nieetycznych czy niewłaściwych rzeczy. To źli są ludzie, którzy wykorzystują go w złych celach. Jest narzędziem jak każde inne. Może być przydatnym oprogramowaniem. I samo w sobie jest bezpieczne. Jednak pod względem użytkowania może być użyte do niebezpiecznych, czy bezprawnych rzeczy. Może ułatwić życie oszustom i innym przestępcom. Dobrzy ludzie będą je wykorzystywać do dobrych celów. Jest w stanie pomagać w sposób przyjazny. Jest pomocny w wielu rzeczach. Dobrych i złych. To jest oprogramowanie, które ma być narzędziem w rękach człowieka. Może nieść ze sobą zagrożenie. To od człowieka zależy, jak zostanie użyte. I od sposobu, w jaki zostanie użyte.

One comment

  1. Powinniśmy uważać w jaki sposób ta S.I/A.I. z użyciem algorytmu na Chut GPT kieruje swoje pytania? Interesuje mnie ten rok 2015 w którym udzielono nam cząstkę tego programu bazującego głownie na pytaniu i odpowiedzi. Nie wiem czy takie czynności są konstytucyjne i zgodne z prawem istniejącym w Polsce a nawet w krajach demokratycznych. Jeżeli takie algorytmy działają podprogowo wysłane na nasz numer w nocy (może działają całodobowo) kierując takie pytania to niestety, po pierwsze nie śpimy dobrze, po drugie mamy jakieś obawy czy instynktownie boimy się czegoś, niejednokrotnie działamy tak jak chce tego algorytm np. w sprawach zakupów niechcianych rzeczy i zbędnych, akumulowane są i sprzedawane nasze dane i czy nie jesteśmy na linkach w jakiejś krajowej czy cybernetycznej chmurze. Ponadto w moim przypadku ktoś nad ranem zapytał się mnie czy mam złoto, walutę i ile tego mam? Cos podobnego, pracownicy Customer Service, infolinii czy waszej sztucznej inteligencji ze szkodliwymi algorytmami, które są wykorzystywane przez hakerów ze złośliwymi kodami wraz z opracowanymi exploitami, które tworzą okna sposobności jak furta do piekła. Przecież wiemy już ze wszystko może być z chakowane. Hakowane są także umysły lub tworzone mapowania umysłu, zmiany reakcji czy interakcji czyli behawioryzmu. Przecież to wszystko może nas doprowadzić na skraj przepaści ekologicznej. Tworzona jest neurobroń a jak jest rozprowadzana jak nie za pomocą algorytmów i zakumulowanej informacji o potencjalnym wrogu czy ofierze. W jedną godzinę mogą wyszukać swoje cele w zasięgu globalnym w Mega Data Base i wszystko przez Internet lub Internet Rzeczy może nawet i Ludzi a kto ofiarą lub celem będzie np. dla terrorysty lub zwykłego złodzieja, przestępcy złośliwego trolla czy idioty w białych rękawiczkach? Może warto zadać to pytanie waszej wszechobecnej inteligencji i wirtualnej telepatii. Wasz projekt rój to istne wariatkowo. Ameryka Południowa może stworzyć wszystko z exploitami i kodami tak samo jak Chińczycy z kopiowaniem technologii. Resztę rozprowadzają hakerzy i to nie za małe pieniądze. Widać, nie przejmuje się tylko wytwórca tej technologii i idzie w zaparte tworząc najbardziej szkodliwe rasie ludzkiej technologiczne pomysły. Zapomnieliśmy już o STUXNECIE i zawirowaniu jakie tworzy niszcząc co ma po drodze.

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.