Sztuczna inteligencja potrafi rozpoznać poglądy polityczne człowieka po jego twarzy

2023-06-28 10:01 aktualizacja: 2023-06-28, 10:17
Twarz kobiety. Zdj. ilustracyjne. Fot. PAP/Jacek Turczyk
Twarz kobiety. Zdj. ilustracyjne. Fot. PAP/Jacek Turczyk
Niemal każdy tydzień przynosi informacje o nowch ożliwościach zastosowania sztucznej inteligencji. Kolejny przykład na to, do czego zdolne jest to narzędzie, dał zespół duńskich i szwedzkich naukowców. Postanowili oni sprawdzić, na ile wykorzystująca tzw. głębokie uczenie sztuczna inteligencja potrafi trafnie określić poglądy polityczne danej osoby, mając do dyspozycji tylko zdjęcie jej twarzy. Trafność typowania sieci neuronowej w badaniu przeprowadzonym na tysiącach twarzy wyniosła aż 61 proc. Sami autorzy badania uznali to za „zagrożenie dla prywatności”.

Zespół złożony z psychologów i politologów wybrał 3323 publicznie dostępne zdjęcia duńskich kandydatów w wyborach samorządowych w 2017 roku i poddał analizie za pomocą sieci neuronowej zdolnej do kodowania i klasyfikacji wyrazu twarzy. Zarówno w przypadku mężczyzn, jak i kobiet sztuczna inteligencja potrafiła trafnie określić preferencje polityczne danej osoby na podstawie jednego tylko zdjęcia twarzy w 61 proc. przypadków. W grupie samych mężczyzn wyniki były jeszcze dokładniejsze - 65 proc.

Zważywszy na niski poziom polaryzacji politycznej w Danii i to, że stawka - wybory samorządowe - nie była wysoka, badacze uznali, że twarze kandydatów dobrze odzwierciedlają twarze zwykłych obywateli o sprecyzowanych poglądach politycznych. Ci, jak ich określili badacze, “ostatni amatorzy w polityce” wydawali się idealną próbą do sprawdzenia, jak sztuczna inteligencja radzi sobie z określaniem poglądów politycznych człowieka na podstawie zaledwie kilku zdjęć w Internecie. Aby wyeliminować ewentualne uprzedzenia rasowe AI z oryginalnej bazy zdjęć, badacze usunęli 188 należących do osób pozaeuropejskiego pochodzenia etnicznego, ponieważ tacy kandydaci byli 2,5 razy częściej reprezentantami partii lewicowych. Do oceny wyrażonego na zdjęciu stanu emocjonalnego kandydata sieć neuronowa wykorzystała Face API firmy Microsoft Azure's Cognitive Services. Wyniki wykazały, że na 80 proc. zdjęć twarze miały radosny wyraz, a na 19 proc. neutralny.

Zdaniem badaczy było to częściowo spowodowane charakterem zdjęć - portrety dostarczone przez kandydatów publicznemu nadawcy - a częściowo z powodu problemów Face API z identyfikacją niektórych innych emocji. Mimo to w wynikach zauważalna była większa tendencja kandydatów prawicowych do prezentowania się jako zadowolonych.  Algorytm uczenia głębokiego wychwycił też jedno ciekawe rozróżnienie - twarze kandydatek lewicowych (tylko kobiet) nieco częściej niż u innych grup wyrażały, zdaniem algorytmu, pogardę. Za znacznie bardziej pewne ustalenie sieci neuronowej autorzy badania uznali powiązanie wysokiej oceny atrakcyjności z konserwatywnymi poglądami. “Wyniki te są wiarygodne, biorąc pod uwagę, że poprzednie badania z udziałem ludzi jako oceniających również wykazały związek między atrakcyjnością a konserwatyzmem" - czytamy w opracowaniu. 

Jednak według algorytmu atrakcyjność jest predyktorem poglądów politycznych wyłącznie u kobiet, nie można tego samego powiedzieć o kandydatach płci męskiej. Natomiast, jak ustaliła AI, mężczyźni o lewicowych poglądach prezentowali bardziej neutralne, mniej radosne twarze, co może sugerować lepszą umiejętność ukrywania emocji.

"Korzystając z wcześniej opracowanej i łatwo dostępnej sieci, która została wyszkolona i zweryfikowana wyłącznie na podstawie publicznie dostępnych danych, byliśmy w stanie przewidzieć w 60 proc. przypadków, jaką ideologię popiera przedstawiana osoba. Nasze wyniki potwierdziły, że wykorzystywane w sztucznej inteligencji głębokie uczenie stwarza zagrożenie dla prywatności" - napisali autorzy badania w raporcie opublikowanym na łamach "Nature". (PAP Life)

kgr/