Ostateczny kształt przepisów o sztucznej inteligencji jest efektem politycznego porozumienia osiągniętego przez Parlament Europejski i kraje członkowskie pod koniec 2023 r. W wydanym w czwartek komunikacie Komisja Europejska podkreśliła, że Akt o AI ma na celu z jednej strony ochronę podstawowych praw człowieka, a z drugiej - ustanowienie zharmonizowanego rynku AI w Europie, a także zachęcanie do stosowania tej technologii i tworzenie środowiska sprzyjającego innowacjom i inwestycjom.
Ostateczny efekt prac nad rozporządzeniem o sztucznej inteligencji nie jest "zachwycający" zdaniem Katarzyny Szymielewicz, szefowej fundacji Panoptykon zajmującej się kwestią praw człowieka w kontekście nowych technologii. "Jak to bywa z politycznymi kompromisami, każdy ma jej coś do zarzucenia. Z perspektywy organizacji społecznych w tym prawie jest tyle luk i nieścisłości, że obawiamy się poważnych problemów na etapie jego egzekwowania. Szczególnie zakazy wprowadzania na rynek systemów AI o kontrowersyjnych zastosowaniach, które mogą naruszać prawa człowieka, ostatecznie zostały powycinane jak szwajcarski ser" - podkreśliła.
"W tym kontekście widzimy ważną rolę dla polskiego rządu" - dodała. W jej ocenie polski ustawodawca może załatać niektóre z luk na etapie tworzenia przepisów krajowych. "W szczególności Polska może zrezygnować z szerokich wyłączeń dla systemów AI służących bezpieczeństwu publicznemu" - podkreśliła dyrektorka fundacji.
O złagodzenie zapisów na etapie prac legislacyjnych zabiegała część krajów członkowskich, zwłaszcza Niemcy i Francja. W ocenie Paryża i Berlina zbyt rygorystyczne regulowanie nowego i szybko się rozwijającego sektora gospodarki może stanowić zagrożenie dla rozwoju AI w Europie.
Większość przepisów Aktu o AI zacznie obowiązywać dopiero za dwa lata. Jako pierwszy - bo już za sześć miesięcy - wejdzie w życie zakaz używania systemów AI stanowiących niedopuszczalne ryzyko. Natomiast do 2 sierpnia 2025 r. kraje członkowskie będą miały czas na wskazanie krajowych organów odpowiedzialnych za nadzorowanie przestrzegania przepisów i kontrolę rynku.
Celem Aktu AI jest wyeliminowanie ryzyk związanych ze stosowaniem takich systemów. Zgodnie z rozporządzeniem systemy te będą podpadać pod cztery kategorie ryzyk: minimalne, specyficzne, wysokie i niedopuszczalne.
Za niedopuszczalne, a więc zakazane w UE, uznawane będą systemy korzystające z danych biometrycznych np. do rozpoznawania aktywności pracowników w miejscu pracy. W tej kategorii znajdą się też zabawki korzystające ze wspomagania głosowego zachęcające nieletnich do groźnych zachowań czy systemy umożliwiające rządom lub firmom "punktację społeczną". Jako niedopuszczalne określone zostaną także niektóre zastosowania predykcyjnych aplikacji, z jakich policja i inne służby mogą korzystać do wykrywania przestępstw, które dopiero mają zostać popełnione.
Do systemów AI wysokiego ryzyka zaliczane będą np. programy wykorzystywane przy rekrutacjach czy ocenie zdolności kredytowej oraz do automatycznego uruchamiania robotów. Systemy uznane za obarczone wysokim ryzykiem będą musiały spełniać rygorystyczne wymogi, w tym zapewniać m.in. nadzór człowieka nad maszyną.
Z kolei systemy AI o specyficznym poziomie ryzyka takie jak chatboty będą musiały informować użytkowników, że mają do czynienia z maszyną.
Większość systemów AI będzie zaliczona do kategorii minimalnego ryzyka, która nie będzie wiązała się z restrykcjami. Są to np. filtry spamu czy algorytmy wykorzystujące uczenie maszynowe do podpowiadania użytkownikom treści na podstawie zgromadzonych danych, takich jak historia zakupów.
Firmy nieprzestrzegające unijnych przepisów będzie można ukarać. Za złamanie przepisów związanych z kategoryzacją systemów AI grozić będzie kara do 7 proc. światowego rocznego obrotu, za naruszenie innych obowiązków - 3 proc., za podanie nieprawdziwych informacji - 1,5 proc.
Z Brukseli Magdalena Cedro (PAP)
pp/