Konsorcjum SHERPA: Gdyby AI mogło to poczuć, obawiałoby się Cyberataków od Ludzi



Artificial intelligence (AI) is rapidly finding applications in nearly every walk of life. Self-driving cars, social media networks, cyber security companies, and everything in between uses it. But a new report published by the SHERPA consortium - an EU project studying the impact of AI on ethics and human rights that F-Secure joined in 2018 - finds that while human attackers have access to machine learning techniques, they currently focus most of their efforts on manipulating existing AI systems for malicious purposes instead of creating new attacks that would use machine learning.

Badanie koncentruje się przede wszystkim na tym, w jaki sposób złośliwi aktorzy mogą wykorzystywać AI, uczenie maszynowe i inteligentne systemy informacyjne. Badacze identyfikują różne potencjalnie złośliwe zastosowania sztucznej inteligencji, które są w zasięgu dzisiejszych atakujących, w tym tworzenie zaawansowanych kampanii dezinformacyjnych i socjotechnicznych.

I chociaż badania nie wykazały ostatecznego dowodu na to, że złośliwi aktorzy używają obecnie sztucznej inteligencji do atakowania cyberataków, podkreślają, że przeciwnicy już atakują i manipulują istniejącymi systemami sztucznej inteligencji wykorzystywanymi przez wyszukiwarki, firmy społecznościowe, witryny rekomendacyjne i inne.
Andy Patel z firmy F-Secure, badacz z firmowego Centrum Doskonałości Sztucznej Inteligencji, uważa, że ​​wiele osób uznałoby to za zaskakujące. Popularne portrety sztucznej inteligencji sugerują, że zwróci się przeciwko nam i zacznie atakować ludzi samodzielnie. Ale obecna rzeczywistość jest taka, że ​​ludzie regularnie atakują systemy AI.

„Niektórzy ludzie niepoprawnie utożsamiają inteligencję maszynową z ludzką inteligencją i myślę, że dlatego kojarzą zagrożenie AI z zabójczymi robotami i komputerami, które nie są kontrolowane” - wyjaśnia Patel. „Ale ludzkie ataki na AI faktycznie zdarzają się cały czas. Ataki Sybil zaprojektowane w celu zatrucia systemów AI, z których ludzie korzystają na co dzień, takich jak systemy rekomendacji, są częstym zjawiskiem. Są nawet firmy sprzedające usługi wspierające to zachowanie. Jak na ironię, dzisiejsze systemy AI muszą bardziej obawiać się ludzi niż na odwrót ”.

Ataki Sybil polegają na tym, że jeden podmiot tworzy i kontroluje wiele fałszywych kont w celu manipulowania danymi, które AI wykorzystuje do podejmowania decyzji. Popularnym przykładem tego ataku jest manipulowanie rankingami wyszukiwarek lub systemami rekomendacji w celu promowania lub obniżania poziomu niektórych treści. Jednak te ataki mogą być również wykorzystane do inżynierii społecznej osób w ukierunkowanych scenariuszach ataków.

„Tego rodzaju ataki są już niezwykle trudne do wykrycia dla dostawców usług internetowych i jest prawdopodobne, że takie zachowanie jest znacznie bardziej rozpowszechnione, niż ktokolwiek w pełni rozumie”, mówi Patel, który przeprowadził szeroko zakrojone badania podejrzanych działań na Twitterze.

Ale być może najbardziej przydatna aplikacja AI dla atakujących w przyszłości pomoże im tworzyć fałszywe treści. Raport zauważa, że ​​sztuczna inteligencja osiągnęła poziom, w którym może wytwarzać niezwykle realistyczne treści pisane, dźwiękowe i wizualne. Niektóre modele AI zostały nawet ukryte przed opinią publiczną, aby zapobiec wykorzystywaniu ich przez napastników.

„Obecnie nasza zdolność do tworzenia przekonujących fałszywych treści jest o wiele bardziej zaawansowana i zaawansowana niż nasza zdolność do ich wykrywania. A sztuczna inteligencja pomaga nam lepiej wytwarzać audio, wideo i obrazy, co tylko uczyni dezinformację i fałszywe treści bardziej wyrafinowanymi i trudniej je wykryć - mówi Patel. „Istnieje wiele różnych aplikacji do przekonujących, fałszywych treści, więc spodziewam się, że może to stać się problematyczne”.

Badanie zostało opracowane przez F-Secure i jej partnerów w SHERPA - finansowanym przez UE projekcie założonym w 2018 roku przez 11 organizacji z 6 różnych krajów. Dodatkowe ustalenia i tematy objęte badaniem obejmują:
  • Przeciwnicy będą się nadal uczyć, jak narażać systemy AI na rozprzestrzenianie się
  • Liczba sposobów, w jakie atakujący mogą manipulować wyjściem AI, sprawia, że ​​takie ataki są trudne do wykrycia i zahartowania
  • Moce konkurujące o opracowanie lepszych rodzajów AI do celów ofensywnych / defensywnych mogą doprowadzić do przyspieszenia „wyścigu zbrojeń AI”
  • Zabezpieczanie systemów AI przed atakami może powodować problemy etyczne (na przykład zwiększone monitorowanie aktywności może naruszać prywatność użytkowników)
  • Narzędzia i modele sztucznej inteligencji opracowane przez zaawansowanych, dobrze wyposażonych aktorów grożących będą w końcu rozprzestrzeniać się i przyjmowane przez przeciwników o niższych kwalifikacjach
    Profesor Bernd Stahl z De Montfort University Leicester, koordynator projektu SHERPA, powiedział, że rola F-Secure w SHERPA jako wyłącznym partnerze branży bezpieczeństwa cybernetycznego pomaga rozliczać się z projektem, w jaki sposób złośliwi aktorzy mogą wykorzystywać sztuczną inteligencję do podważania zaufania do społeczeństwa.
„Celem naszego projektu jest zrozumienie etycznych i wynikających z praw człowieka konsekwencji sztucznej inteligencji i analizy dużych zbiorów danych, aby pomóc w opracowaniu sposobów rozwiązania tych problemów. Prace te muszą opierać się na solidnym zrozumieniu możliwości technicznych, a także słabych punktów, które są kluczowym obszarem wiedzy specjalistycznej, który F-Secure wnosi do konsorcjum - mówi Stahl. „Nie możemy prowadzić znaczących rozmów na temat praw człowieka, prywatności lub etyki w sztucznej inteligencji bez uwzględnienia bezpieczeństwa cybernetycznego. I jako godny zaufania
Jako źródło wiedzy na temat bezpieczeństwa wkład F-Secure stanowi centralną część projektu ”.

The full-length study is currently available here. More information on artificial intelligence and cyber security is available on F-Secure's blog, or F-Secure's News from the Labs research blog.