O powszechności sztucznej inteligencji i wkraczaniu jej w wiele obszarów życia człowieka nie trzeba wspominać. O historii AI i jej znaczeniu dla nowoczesnego przemysłu możecie przeczytać w poprzednim artykule na ten temat. Na polu cyberbezpieczeństwa sztuczna inteligencja również odgrywa coraz większą rolę. Niestety, nie tylko służąc zwiększeniu bezpieczeństwa dzięki zaawansowanym funkcjom i technologiom. Okazuje się bowiem, że również cyberprzestępcy wykorzystują AI aby osiągnąć swoje cele.

Zanim jednak przejdziemy do tego jak to się dzieje, przyjrzyjmy się jakie podejście do AI reprezentują współcześni odbiorcy nowoczesnych technologii. W szczególności pod kątem bezpieczeństwa cybernetycznego.

Podejście do AI i bezpieczeństwa przez współczesne organizacje

W zeszłym miesiącu Capgemini opublikowało raport Capgemini Reinventing Cybersecurity with Artificial Intelligence Report. Publikacja jest efektem badania na grupie 850 kierowników wyższego szczebla z siedmiu branż, w tym produktów konsumenckich, handlu detalicznego, bankowości, ubezpieczeń, motoryzacji, mediów i telekomunikacji. 20% respondentów wykonawczych to CIO (Chief Information Officer), a 10% to CISO (Chief Information Security Officer). W raporcie uwzględniono przedsiębiorstwa z siedzibą w krajach europejskich i nie tylko. Powołując się na wyniki raportu:

  • 61% przedsiębiorstw twierdzi, że nie może dziś wykryć prób naruszenia bezpieczeństwa bez użycia technologii sztucznej inteligencji.
  • 48% twierdzi, że ich budżety na sztuczną inteligencję w cyberbezpieczeństwie wzrosną średnio o 29% w roku budżetowym 2020.
  • 69% przedsiębiorstw uważa, że AI będzie koniecznością, aby zareagować na cyberataki.
  • 80% firm telekomunikacyjnych twierdzi, że liczy na sztuczną inteligencję, która pomoże zidentyfikować zagrożenia i udaremnić ataki.

Instytut Badawczy Capgemini twierdzi, że wraz z rozwojem cyfryzacji ryzyko cyberataków wzrasta wykładniczo. 21% badanych stwierdziło, że ich organizacja doświadczyła naruszenia bezpieczeństwa cybernetycznego prowadzącego do nieautoryzowanego dostępu w 2018 roku.

Z pewnością już dziś organizacje płacą wysoką cenę za naruszenia bezpieczeństwa cybernetycznego: 20% zgłasza straty przekraczające 50 milionów USD. Ponadto stwierdzono, że 74% wszystkich naruszeń dotyczyło dostępu do konta uprzywilejowanego. Nie jest tajemnicą, że to najpopularniejsza technika hakerów do inicjowania naruszeń. Tymczasem sztuczna inteligencja może wspomóc wiele obszarów bezpieczeństwa:

  • zapobieganie zagrożeniom z zewnątrz – identyfikacja trendów w pojawiających się malware i spyware,
  • wykrywanie zagrożeń wewnętrznych – np luk w infrastrukturze, działań pracowników, analiza podejrzanego zachowania aplikacji,
  • zapewnienie jak najszybszej reakcji na zagrożenie : zatrzymywanie złośliwego oprogramowania, łagodzenie skutków ataków.

73% przedsiębiorstw badanych przez Capgemini testuje obecnie rozwiązania security oparte na AI. Szczególnym priorytetem jest bezpieczeństwo punktów końcowych: Przewiduje się wzrost urządzeń IoT/IIoT do ponad 25 miliardów w 2021 r. W konsekwencji powoduje to zwiększanie powierzchni zagrożeń oraz nowe możliwości dla sztucznej inteligencji.

Problem z prywatnością, zmianą i… kontrolą świata

Inteligentne urządzenia określane są mianem smart i pod taką nazwą funkcjonują w wielu dziedzinach życia codziennego. Badania sugerują, że ci, którzy są bardziej otwarci na technologie sztucznej inteligencji, pozytywnie oceniają jej rolę w zapewnieniu cyberbezpieczeństwa. Równocześnie okazuje się, że użytkownicy inteligentnych technologii mają mieszane odczucia co do własnego bezpieczeństwa i prywatności. 43% respondentów z regionu EMEA ma zastrzeżenia, co do bezpieczeństwa użytkownika w kontekście Internetu Rzeczy.

Według analityków jest to normalne zachowanie, bowiem zwykle obawiamy się tego, czego nie znamy. W przeszłości wiele z ówczesnych wynalazków budziło w ludziach lęk bądź potrzebowało czasu aby przekonać do siebie większość. Co więcej, mimo że innowacje wiązały się z poprawą jakości życia (np. elektryczność) i tak spotykały się z rezerwą u części społeczeństwa. Wielu ludzi postrzega zmiany jako ryzyko a z natury jesteśmy niechętni do podejmowania ryzyka. Przykłady z historii i współczesności pokazują, że wystarczy zrozumienie i czas. Wykorzystanie technologii jako wsparcia dla ludzkich możliwości znajduje też odzwierciedlenie w podejściu człowieka do wielu zagadnień.  Przerzucenie odpowiedzialności za bezpieczeństwo na gotowe rozwiązania w tym sztuczną inteligencję jest tego przykładem.

Godnym uwagi jest fakt, jakie wyobrażenie nadal ma część ludzkości na temat sztucznej inteligencji. Wciąż zdarzają się głosy, że pewnego dnia AI zwróci się przeciwko nam i zacznie atakować ludzi samodzielnie. A już w najlepszym przypadku będziemy tylko kontrolowani przez inteligentne maszyny. Powielając takie teorie, wyolbrzymiamy nasze możliwości technologiczne. Jesteśmy dopiero na samym początku drogi współpracy ze sztuczną inteligencją. Jak się okazuje, to nie inteligentne urządzenia dybią na nasze życia. Obecna rzeczywistość jest taka, że to … ludzie regularnie atakują systemy AI.

ai w rękach cyberprzestepcow

W jaki sposób cyberprzestępcy wykorzystują AI?

Konsorcjum SHERPA , prowadzące badania nad możliwościami sztucznej inteligencji, stwierdza, że cyberprzestępcy mają dostęp do technik uczenia maszynowego. Ponadto, większość swoich wysiłków koncentrują oni na manipulowaniu istniejącymi systemami sztucznej inteligencji pod kątem złośliwych działań. Tworzenie nowych ataków wykorzystujących sztuczną inteligencje póki co nie jest opłacalne. Badania SHERPA koncentrują się na tym, jak w szkodliwy sposób można wykorzystywać AI, uczenie maszynowe i inteligentne systemy informacyjne. Naukowcy zidentyfikowali różne potencjalnie złośliwe zastosowania sztucznej inteligencji, które są w zasięgu dzisiejszych atakujących. Należą do nich tworzenie zaawansowanych kampanii dezinformacyjnych i socjotechnicznych.

Atak Sybil

Okazuje się, że ataki następują poprzez manipulowanie istniejącymi systemami sztucznej inteligencji wykorzystywanymi przez wyszukiwarki, firmy społecznościowe, strony rekomendacyjne i inne. Andy Patel z firmy F-Secure, badacz z Centrum Doskonałości Sztucznej Inteligencji, przyznaje, że dla wielu osób są to zaskakujące informacje:

„Ataki człowieka na sztuczną inteligencję faktycznie zdarzają się cały czas. Szczególnie szkodliwe są incydenty Sybil, które uderzają w narzędzia AI codziennego użytku. Częstymi ofiarami są systemy rekomendacji. Istnieją nawet firmy sprzedające usługi wspierające to zachowanie. Jak na ironię, dzisiejsze inteligentne systemy muszą bardziej obawiać się ludzi niż na odwrót.”

Ataki Sybil polegają na tym, że jeden podmiot tworzy i kontroluje wiele fałszywych kont w celu manipulowania danymi, które AI wykorzystuje do podejmowania decyzji. Popularnym przykładem tego ataku jest manipulowanie rankingami wyszukiwarek lub systemami rekomendacji w celu promowania lub obniżania poziomu niektórych treści. Jednak te ataki mogą być również wykorzystane do inżynierii społecznej osób w ukierunkowanych scenariuszach ataków.

Tego rodzaju ataki są już niezwykle trudne do wykrycia dla dostawców usług internetowych. Według Patela, jest wysoko prawdopodobne, że takie zachowanie jest znacznie bardziej rozpowszechnione, niż można podejrzewać. Jego opinia podparta jest wnioskami z szeroko zakrojonych badań podejrzanych działań na Twitterze.

Fałszywe treści

Już teraz sztuczna inteligencja osiągnęła poziom, w którym może wytwarzać niezwykle realistyczne treści pisane, dźwiękowe i wizualne. Według raportu SHERPA, niektóre modele AI zostały nawet ukryte przed opinią publiczną, aby zapobiec wykorzystywaniu ich przez cyberprzestępców. Istotny jest fakt, że zdolność do tworzenia przekonujących fałszywych treści jest znacznie bardziej wyrafinowana i zaawansowana niż możliwości technologiczne do ich wykrywania. A ponieważ AI wspiera tworzenie fałszywych treści, może nastąpić trudna do opanowania dezinformacja.

„Istnieje wiele różnych aplikacji do przekonujących, fałszywych treści, więc spodziewam się, że może to stać się problematyczne” – stwierdza Andy Patel. Oczywiście, można stwierdzić, że samo tworzenie fałszywych treści nie oznacza krytycznego zagrożenia dla organizacji. W przeciwieństwie do sytuacji, w której działania cyberprzestępców będą miały przełożenie na ludzkie zdrowie i życie. Na przykład przenosząc możliwości tworzenia fałszywych treści i komunikatów do infrastruktury przemysłowej i systemów użyteczności publicznej. Można sobie łatwo wyobrazić co to może oznaczać, chociażby w odniesieniu do komunikatów na dworcach, lotniskach, ekranach ostrzegawczych i innych miejscach.

W ubiegłych latach pojawiły się teorie odnośnie manipulacji danymi przez AI na korzyść decyzji politycznych. Z punktu widzenia technologii, jest to jak najbardziej realne. Podczas gdy osoby tworzące złośliwe oprogramowanie nazywamy hakerami, sprecyzowanie cienkiej granicy między marketingiem a manipulacją z wykorzystaniem AI jest problematyczne. Z pewnością jednak możemy założyć, że cyberprzestępcy będą się nadal uczyć, jak czynić systemy AI bardziej podatnymi na ich manipulacje.

newsy
Tworzenie fałszywych treści i manipulowanie danymi to jedne z możliwości sztucznej inteligencji

Człowiek po raz kolejny

Liczba sposobów, jakimi atakujący mogą manipulować inteligentnymi systemami, sprawia, że takie ataki są trudne do wykrycia i przewidzenia. Dodając do tego nieustanne ulepszanie algorytmów uczenia się, arsenał możliwości cyberprzestepców powiększa się. Można spotkać się już z takim pojęciem jak „wyścig zbrojeń AI” – który w zasadzie jest odwieczną walką między atakującymi a obrońcami, tyle, że na płaszczyźnie niespotykanych dotąd możliwości.

Zabezpieczanie systemów AI przed atakami może powodować problemy etyczne. Przykładowo, zwiększone monitorowanie aktywności może naruszać prywatność użytkowników. Pisaliśmy o tym szerzej, zastanawiając się nad bezpieczeństwem przemysłowego Internetu Rzeczy (IIoT). Te dylematy związane z przyjmowaniem założeń czwartej rewolucji przemysłowej będą niestety wykorzystywane przez cyberprzestępców. Tak jak musimy utrzymywać w dobrym stanie zabezpieczenia naszego środowiska IT & OT, tak samo powinniśmy być na bieżąco z zagrożeniami wykorzystującymi sztuczną inteligencję.  W końcu ataki na smart urządzenia IoT to nic nowego i mogą je przeprowadzać nawet nastolatki.

Z jednej strony, system jest tak dobry jak zaprojektował go człowiek. Tak samo nasza sieć jest tak bezpieczna, jak zabezpieczone jest jej najsłabsze ogniwo. Z drugiej jednak, reguły te tracą na znaczeniu w świecie sztucznej inteligencji. Za korzystanie z narzędzi i modeli AI w złośliwym oprogramowaniu zwykle biorą się zaawansowani i doświadczeni hakerzy. Niestety programy  bądź kody źródłowe aplikacji „mają tendencję” do rozprzestrzeniania się i bycia modyfikowanymi przez kolejne osoby o… niższych kwalifikacjach. Taką drogę przebył chociażby botnet Mirai, doczekawszy się kilkudziesięciu odmian.

Podsumowując, niemal każdą technologię można wykorzystać na wiele sposobów. Sztuczna inteligencja i jej możliwości mogą równie dobrze służyć cyberprzestępcom. Pocieszające jest to, że daleko nam do scenariusza, w którym złowrogie maszyny kontrolują świat. Wciąż naszym głównym cyberzagrożeniem pozostaje po prostu drugi człowiek.

https://www.forbes.com/sites/louiscolumbus/2019/07/14/why-ai-is-the-future-of-cybersecurity
https://www.capgemini.com/wp-content/uploads/2019/07/AI-in-Cybersecurity_Report_20190711_V06.pdf
https://www.helpnetsecurity.com/2019/07/09/ai-control-digital-security
https://www.helpnetsecurity.com/2019/07/16/abuse-artificial-intelligence

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *