Ekspert: sztuczna inteligencja niesie ze sobą wiele ryzyk. Manipulacja i szerzenie dezinformacji niektórymi z nich

2023-03-09 04:35 aktualizacja: 2023-03-09, 12:11
Robot, sztuczna inteligencja, Fot. PAP/EPA/MAXIM SHIPENKOV
Robot, sztuczna inteligencja, Fot. PAP/EPA/MAXIM SHIPENKOV
Sztuczna inteligencja radykalnie zmieni nasze życie i musimy się zastanowić, jak kształtować świat napędzany przez AI - powiedział w środę w Kongresie prof. Aleksander Mądry, pochodzący z Polski dyrektor ośrodka zajmującego się sztuczną inteligencją na Massachussetts Insitute of Technology (MIT). Ostrzegł też przed ryzykami związanymi z masowym używaniem tej technologii.

"AI nie jest już sprawą science-fiction ani technologią, która jest ograniczona do laboratoriów badawczych. AI to technologia, która już jest wykorzystywana i szeroko przyjmowana. Drastycznie zmieni nasze życie; musimy myśleć nad tym, jak kształtować napędzany przez AI świat, który stoi przed nami" - powiedział profesor prestiżowej uczelni podczas wysłuchania przed podkomisją Izby Reprezentantów ds. nadzoru.

Pochodzący z Polski uczony i szef ośrodka MIT Center for Deployable Machine Learning występował obok m.in. byłego szefa Google Erica Schmidta w wysłuchaniu poświęconym rozwojowi AI i przygotowaniu USA na "technologiczną rewolucję" z nim związaną.

Mądry podkreślił, że nowa generacja AI, tzw. generatywna sztuczna inteligencja, która pojawiła się w ostatnich latach i miesiącach - mowa tu m.in. o aplikacjach ChatGPT, Bing Chat, czy generatorach obrazów DALL-E i Midjourney - różni się nie tylko większymi zdolnościami, ale też dużo większą dostępnością i przystępnością dla zwykłego odbiorcy.

Jak podkreślił, wiążą się z tym zarówno ogromne możliwości w niemal każdym sektorze gospodarki, ale też wiele ryzyk, m.in. związanych z podatnością tych systemów na manipulacje i użycie ich do dezinformacji, powtarzaniem i utrwalaniem uprzedzeń, a także ich generalną zawodnością.

"Nawet eksperci AI mają bardzo słabe zrozumienie skali tych problemów i dopiero zaczynają znajdować sposoby, by je odkrywać i łagodzić" - powiedział ekspert.

Zwrócił też uwagę, że nowe problemy mogą powstać w drodze tworzenia "łańcuchów dostaw AI" - tzn. tworzenia nowych aplikacji na bazie i przy połączeniu z różnymi typami AI. Jak stwierdził, ponieważ tworzenie podstawowych systemów AI jest drogie i wymaga ogromnych nakładów, tylko bardzo nieliczne podmioty są w stanie je tworzyć, co da może dać im dominującą pozycję. Jak przewiduje, choć w niedalekiej przyszłości rozwój sztucznej inteligencji doprowadzi do ogromnej eksplozji nowych AI, niemal wszystkie będą oparte na kilku bazowych programach.

Prof. Mądry dodał też, że łączenie różnych systemów sztucznej inteligencji może prowadzić do nieprzewidywalnych zmian w ich charakterystykach.

"To jest problem nawet bardziej skomplikowany, bo eksperci AI nie potrafią wyjaśnić, jak pojedyncze systemy AI docierają do swoich konkluzji, a dochodzenie do tego stanie się dużo trudniejsze, jeśli systemy zostaną na siebie nałożone" - ocenił Mądry.

Wezwał również do wprowadzenia regulacji prawnych i technicznych, by móc odpowiadać na problemy związane z decyzjami dokonywanymi przez systemy sztucznej inteligencji.

Pytany przez kongresmenów, czy obawia się tego, że szybki rozwój AI doprowadzi do katastrofy, Mądry odpowiedział, że choć nie obawia się "scenariusza z 'Terminatora'", to jego niepokój budzi np. większe użycie AI w mediach społecznościowych, co może jeszcze wzmocnić dotychczasowe problemy z tymi sieciami, kreując "social media na sterydach". Powiedział przy tym, ze konieczne są w tym obszarze mocne regulacje prawne.

"Musimy zapewnić, że firmy, o których mówimy, nie są tylko motywowane przez zysk, ale zdają sobie sprawę, że mają też pewną odpowiedzialność" - powiedział profesor. Jak dodał, właśnie brak regulacji jest jego największą obawą, jeśli chodzi o rozwój AI.

Inną odpowiedź na temat swoich obaw dał Schmidt, były szef Google'a, który stwierdził, że najbardziej niepokoi go potencjalna rozbieżność interesów między ludźmi i sztuczną inteligencją.

"Chodzi o sytuację, gdzie człowiek ma jeden zestaw zachęt, komputer został wytrenowany, by dążyć do innych rezultatów, a społeczeństwo ma jeszcze inne interesy" - powiedział ekspert. Dodał też, że choć Pentagon chce, by broń oparta o AI automatycznie podejmowała decyzje, w chwili obecnej systemy te nie są gotowe do takich "ostatecznych" wyborów i może nigdy nie będą.

Z Waszyngtonu Oskar Górzyński (PAP)

kw/