Chatboty mogą "nawrócić" zwolenników teorii spiskowych

2024-04-14 14:29 aktualizacja: 2024-04-14, 14:34
Strona startowa ChatGPT. Zdj. ilustracyjne. Fot. PAP/EPA/WU HAO
Strona startowa ChatGPT. Zdj. ilustracyjne. Fot. PAP/EPA/WU HAO
Wystarczy krótka rozmowa ze sztuczną inteligencją, aby wiara w teorię spiskową spadła o około 20 proc. – informuje portal „PsyArXiv”.

Chatboty, które wykorzystują duże modele językowe (takie jak te obsługujące ChatGPT), mogą zmniejszyć wiarę ludzi w teorie spiskowe - poprzez debatę z nimi. Co więcej, podejście, jakie wypracowały może nauczyć ludzi lepszych sposobów postępowania z autorami takich teorii.

Co prawda wcześniejsze badania sugerują, że w ciągu około dziesięciu lat poziom wiary w teorie spiskowe w populacji nie zmienił się znacząco ani w USA, ani w sześciu krajach europejskich objętych badaniem, jednak wyznawców teorii spiskowych cechuje trwała, niezachwiana wiara w swoje przekonania.

Oczywiście idee takie jak płaska Ziemia, chemtrails czy spisek reptilian budzą sprzeciw wielu osób, które próbują się im przeciwstawić - często bez powodzenia.

„Próby przekonania zwolenników teorii spiskowych (którzy się mylą) historycznie nie kończyły się sukcesem” – powiedział w rozmowie z „New Scientist” Thomas Costello z Massachusetts Institute of Technology.

Costello i jego współpracownicy opracowali jednak nowe, skuteczne podejście. W ich eksperymencie wzięło udział 2190 wyznawców teorii spiskowych. Po przedstawieniu zarysu swojej ulubionej  teorii spiskowej osoby te zostały zaproszone do dyskusji z dużym modelem językowym (LLM), wykorzystującym sztuczną inteligencję GPT-4 Turbo.

Każdemu z uczestników przedstawiono podsumowanie jego teorii spiskowej, sporządzone przez sztuczną inteligencję; każdą osobę poproszono też o ocenę poziomu pewności, jaką ma, że dana teoria jest prawdziwa.

Następnie LLM rozpoczął czat, podczas którego każda ze stron zaproponowała trzy uwagi do rozmowy. Później uczestników poproszono o ponowne przedstawienie swojej tezy i jeszcze raz poproszono o ocenę poziomu zaufania do teorii spiskowej.

Wiara uczestników w konkretną teorię, o której wspominali, spadła o około 20 proc., a przy okazji, jak zaobserwowano, zmniejszyła się także wiara w inne teorie spiskowe. Jako że efekt utrzymywał się co najmniej przez dwa miesiące, wydaje się, że po rozmowie z chatbotem ludzie trwale zmienili swoje poglądy.

„Mam przeczucie, że wcześniejsze próby obalenia teorii spiskowych były ograniczone ze względu na to, jak bardzo musiały być uogólnione – wskazał wypowiadający się dla „New Scientist” Costello. - Zbyt ogólne, niepogłębione podejście do faktów często nie przekonuje zwolenników teorii spiskowych, którzy często 'prowadzą własne badania', starając się pogłębić znajomość tematu - nawet jeśli ich rozumowanie jest błędne".

W 83 proc. rozmów sztuczna inteligencja posługiwała się argumentami opartymi na dowodach na rzecz alternatywnych perspektyw. Fakty te mocniej przemawiały do osób uważających, że posiadły prawdę, a inni są w błędzie.

Zdaniem autorów badań, opublikowanych w nierecenzowanym artykule w portalu "PsyArXiv" (https://osf.io/preprints/psyarxiv/xcwdn), zdolność generatywnej sztucznej inteligencji do przetworzenia i syntezy dużych ilości informacji pomogła chatbotowi przekonać nawet upartych zwolenników teorii spiskowych do zmiany zdania.

O ile ludzie często apelują do emocji, co zwykle kończy się mało merytoryczną kłótnią, sztuczna inteligencja rzadko się do nich odwoływała. Nie osądzała rozmówcy, była cierpliwa - dlatego mogła uniknąć wywoływania reakcji emocjonalnych, które utrudniałyby perswazję.

Costello uważa, że metoda ta może zostać szerzej wdrożona - albo poprzez wykorzystanie chatbotów, albo poprzez naśladowanie podejścia chatbota. „Jeśli chodzi o metody perswazji, życzliwość, nieocenianie i skupianie się na faktach, myślę, że teoretycznie to wszystko ludzie mogliby zrobić” - zaznaczył.(PAP)

Autor: Paweł Wernicki

kgr/