Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich – w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie – podkreśla w rozmowie z PAP prof. Zybertowicz.
W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej „kluczową dla całego dorobku intelektualnego i moralnego ludzkości”. Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.
„Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę” – powiedział profesor.
Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI „bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka”.
Spadająca liczba odkryć naukowych
Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego „Nature”, które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.
„Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć” – stwierdził rozmówca PAP.
„Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe” – dodał.
Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. „Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli” – powiedział profesor.
„Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje” – podkreślił.
Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym – stwierdził profesor – każdy z nas musi stosować higienę cyfrową i co dzień walczyć w „nierównym starciu ze smartfonami”.
Jednocześnie jednak Big Techy potrafią poprzez lobbing i propagandę powstrzymywać działania regulacyjne w zakresie nowych technologii, jakie stara się wprowadzać choćby Unia Europejska – podkreślił.
„O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?” – uważa prof. Zybertowicz. „Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI”.
Rozmawiała: Katarzyna Łukasiewicz(PAP)
kjm/ jar/