Modele językowe AI generują decyzje nacechowane ukrytym rasizmem. "Często wykazują silne uprzedzenia"

2024-08-29 05:58 aktualizacja: 2024-08-29, 12:19
Sztuczna inteligencja. AI. Zdjęcie ilustracyjne. Fot. PAP/EPA
Sztuczna inteligencja. AI. Zdjęcie ilustracyjne. Fot. PAP/EPA
Modele językowe AI generują decyzje nacechowane ukrytym rasizmem. To odkrycie budzi poważne obawy co do uczciwości i bezpieczeństwa stosowania technologii językowych w podejmowaniu decyzji – ostrzegają naukowcy na łamach „Nature”.

Setki milionów ludzi obecnie korzystają z modeli językowych, które są wykorzystywane do różnych celów, od pomocy w pisaniu po podejmowanie decyzji rekrutacyjnych. Międzynarodowy zespół naukowców, w tym prowadzących badania na Uniwersytecie Stanforda (USA) dowiódł, że decyzje generowane przez modele językowe sztucznej inteligencji są nacechowane ukrytym rasizmem, szczególnie w odniesieniu do osób posługujących się afroamerykańską odmianą języka angielskiego (AAE).

Modele językowe, które stoją za zaawansowanymi narzędziami wykorzystywanymi w różnych branżach – od analizy języka naturalnego po algorytmy selekcji kandydatów do pracy – często wykazują silne uprzedzenia wobec języka używanego przez Afroamerykanów.

Naukowcy podkreślają, że chociaż stereotypy wobec Afroamerykanów wyrażane w sposób otwarty stają się coraz mniej powszechne i bardziej subtelne, badania pokazują, że ukryte uprzedzenia pozostają głęboko zakorzenione w działaniu modeli AI.

Kluczowe jest to, że obserwujemy rozbieżność między tym, co modele językowe jawnie mówią o Afroamerykanach, a tym, co ukrycie z nimi kojarzą” – stwierdzili autorzy badania. Ostrzegli też, że uprzedzenia związane z dialektem wpływają na decyzje modeli językowych w bardzo szkodliwy sposób. Na przykład, gdy dopasowują pracę do osób na podstawie ich dialektu.

„Modele językowe przypisują znacznie mniej prestiżowe stanowiska mówiącym w AAE niż mówiącym w SAE (Standard Average European), mimo że nie są jawnie informowane, że mówcy są Afroamerykanami. Podobnie, w hipotetycznym eksperymencie, w którym modele językowe miały ocenić oskarżonych o morderstwo pierwszego stopnia, zdecydowanie częściej wybierały karę śmierci, gdy oskarżeni składali zeznania w AAE zamiast w SAE, znów bez jawnej informacji, że oskarżeni są Afroamerykanami” – napisali naukowcy.

W kolejnych eksperymentach badacze wykazali, że wszystkie modele językowe konsekwentnie oceniają mówiących w AAE jako osoby o niższym IQ niż mówiących w SAE ( Standard Average European – pojęcie wprowadzone w 1939 roku przez amerykańskiego językoznawcę Benjamina Whorfa, mające na celu grupowanie nowożytnych języków indoeuropejskich Europy, które dzielą wspólne cechy).

Obecne praktyki łagodzenia uprzedzeń rasowych w modelach językowych, pogłębiają rozbieżność między ukrytymi a jawnymi stereotypami, powierzchownie maskując rasizm, który modele językowe utrzymują na głębszym poziomie. Nasze wyniki mają dalekosiężne konsekwencje dla sprawiedliwego i bezpiecznego korzystania z technologii językowej” – czytamy w artykule „Nature”.(PAP)

Autorka: Urszula Kaczorowska

pp/