Płk Rafał Kasprzyk: nawet inteligentna maszyna może zostać zmanipulowana jak marionetka
Nawet inteligentna maszyna może zostać zmanipulowana jak marionetka. Cybernetycy nazywają to „złośliwym antagonistycznym atakiem”. Dlatego naukowcy, również w Wojskowej Akademii Technicznej, prowadzą badania dotyczących działań antagonistycznych - powiedział gość Studia PAP płk dr inż. Rafał Kasprzyk z WAT.
Jak tłumaczy cybernetyk, płk dr inż. Rafał Kasprzyk z Wojskowej Akademii Technicznej, wprowadzenie software’u na pole walki wzmacnia siły wojska, ale też zwiększa powierzchnię ataku. Luki powstają czasem w sposób niekontrolowany, ale bywa, że na etapie budowania, inżynierowie specjalnie wprowadzają "tylne wejście" do systemu.
"W przypadku algorytmów sztucznej inteligencji temat jest o tyle skomplikowany, że - ponieważ do końca nie rozumiemy najnowszych dużych modeli, zbudowanych z wykorzystaniem chociażby architektur głębokich sieci neuronowych - to one mogą mieć podatności, które nie są dla nas widoczne. Również nie są widoczne dla przeciwnika, przynajmniej na początku. Natomiast mogą być wyszukiwane i znalezione z wykorzystaniem innych algorytmów uczenia maszynowego. I tu pojawia się coś, co można nazwać wojną maszyn" – mówi pułkownik.
"Złośliwy antagonistyczny atak"
Jak zaznacza, inteligentna maszyna może zostać zmanipulowana jak marionetka. W języku cybernetyków nazywane jest to "złośliwym antagonistycznym atakiem". Sztuczną inteligencję można oszukać innymi algorytmami, przygotować "szum", który pozwala złośliwe sterować maszyną, specjalne "łatki" do umieszczania na obiektach, które ona rozpoznaje. Tu uwidacznia się jak dotąd ogromna przewaga człowieka – to, co człowiek klasyfikuje bez problemu, dla urządzenia może być mylące, np. znak drogowy ze złośliwą naklejką lub pomalowany specjalną farbą. Zdaniem inżyniera, to właśnie dlatego po naszych drogach nie jeżdżą jeszcze powszechnie autonomiczne auta.
"Modele widzenia komputerowego są niezwykle odporne na ataki chuligańskie - jak losowe, przypadkowe niszczenie znaków drogowych, czy ich zamalowanie. Kiedy na taki znak zostanie spreparowana 'łatka', którą nazywa się 'patchem' (…) może to spowodować, że znak 'stop' autonomiczny samochód widzi jako 'droga z pierwszeństwem przejazdu', czyli aż tak może się mylić. Wyobraźmy sobie, co by było, gdybyśmy tego typu algorytmy wykorzystywali w wojsku. Takie łatki [przygotowane przez] przeciwnika mogłyby powodować, że nasze systemy zaczęłyby atakować nasze własne pododdziały. To jest niezwykle niebezpieczne i tu zachować należy zdrowy rozsądek" – stwierdza badacz.
Badania na Wojskowej Akademii Technicznej
Naukowcy, również w Wojskowej Akademii Technicznej, prowadzą wiele badań m.in. w obszarze działań antagonistycznych. Zdaniem rozmówcy Studia PAP, który jest zastępcą dziekana Wydziału Cybernetyki WAT, w Polsce są dobre pespektywy rozwoju dla młodych osób zainteresowanych sztuczną inteligencją od strony konstrukcyjnej, naukowej. Dla najlepszych – tych, którzy przebrną przez "poligon intelektualny" i poradzą sobie z matematyką, statystyką, probabilistyką - są też gwarancje dobrej pracy.
Pułkownik przypomniał, że naukowcy pracują nad wykorzystaniem AI w systemach dowodzenia i kontroli czy w autonomicznych dronach. Prowadzone są też badania nad operacjami w cyberprzestrzeni (Cyber ops) i w sferze informacyjnej (Info ops). Polscy młodzi badacze mogą uczestniczyć w tzw. wojnie informacyjnej i budować skuteczne metody przeciwdziałania tzw. deepfake’om, do których również wykorzystywana jest generatywna AI. Tworzy ona niemające pokrycia w faktach treści, które mogą być wykorzystywane do manipulowania osobami, grupą społeczną czy całym społeczeństwem. "Ale oczywiście mamy [w wojskowości – PAP] zasadę: miecz-tarcza, czyli również powstają narzędzia oparte o algorytmy AI do identyfikacji treści syntetycznych mających znamiona dezinformacji" – podsumowuje inżynier.
Karolina Duszczyk (PAP)
kol/ zan/ grg/