O PAP.pl

PAP.pl to portal PAP - największej agencji informacyjnej w Polsce, która zbiera, opracowuje i przekazuje obiektywne i wszechstronne informacje z kraju i zagranicy. W portalu użytkownik może przeczytać wybór najważniejszych depesz, wzbogaconych o zdjęcia i wideo.

Chatboty AI są niebezpieczne dla dzieci. Eksperci przestrzegają

Aplikacje oparte o chatboty sztucznej inteligencji są niebezpieczne dla dzieci - ostrzegają eksperci, z którymi rozmawiała PAP. Narzędzia te nie weryfikują wieku użytkowników, zacierają granice między rzeczywistością a imaginacją, mogą promować treści seksualizujące, samookaleczenia, ekstremizm.

Chatbot AI (zdjęcie ilustracyjne). Fot. EPA/WU HAO
Chatbot AI (zdjęcie ilustracyjne). Fot. EPA/WU HAO

Od około trzech lat, dzięki sukcesowi Chata GPT, wielką popularność, przede wszystkim wśród dzieci i młodzieży, zyskały platformy pozwalające na kreowanie postaci za pomocą sztucznej inteligencji. Chatboty tworzą emocjonalną więź między systemem a użytkownikiem naśladując ludzką konwersację. Wykorzystują do tego duże modele językowe (LLM).

Jedną z najpopularniejszych platform jest Character.AI, z której w grudniu 2024 roku korzystało ponad 27 milionów osób. Teoretycznie użytkownicy muszą mieć skończone 13 lat, ale aplikacja nie sprawdza wieku. Podobne platformy stworzyli także giganci technologiczni, w tym Meta i Google.

Jakie zagrożenia czekają na dzieci?

Graphika - amerykańska firma badająca społeczności internetowe opublikowała w marcu 2025 roku raport poświęcony chatbotom sztucznej inteligencji. Jego autorzy twierdzą, że już istniejące społeczności internetowe, w tym np. grupy promujące samookaleczenia, zaburzenia odżywiania, np. anoreksję, czy łączące amatorów rzeczywistych przestępstw (ang. real-life crime), szybko zaczęły masowo wykorzystywać chatboty. Najpopularniejsze społeczności to dwie grupy: chatboty z treściami niebezpiecznymi dla życia (ang. not safe for life, NSFL) oraz nieodpowiednimi w miejscu pracy (ang. not safe for work, NSFW).

Na pięciu wiodących platformach (poza Character.AI badano także SpicyChat, Chub AI, CrushOn.AI i JanitorAI) Graphika zidentyfikowała ponad 10 tys. chatbotów, które angażowały się w odgrywanie seksualnych ról z udziałem nieletnich. Inne często kreowane postacie to ekstremiści, włącznie z masowymi strzelaninami, nazistami, antysemitami czy rasistami.

Zdaniem Aleksandra Poniewierskiego, eksperta nowych technologii i członka Rady Doradców Politechniki Warszawskiej, wszystkie te aplikacje są używane także i w Polsce, w tym przez nastolatki. „Nie ma żadnej bariery wejścia, ponieważ platformy nie weryfikują wieku, są darmowe, a sztuczna inteligencja nie ma ograniczeń językowych” – powiedział w rozmowie z PAP.

Podkreślił, że dorośli na podstawie doświadczenia są w stanie odseparować kontekst od przekazywanej treści, czego dzieci nie umieją. „Sztuczna inteligencja przenosi to, czego się nauczyła w świecie dorosłych na rozmowę z dziećmi, bo nie wie, że rozmawia z nieletnim i nie umie z nim konwersować” – dodał Poniewierski.

Według Doroty Minty, psycholożki z Instytutu Wsparcia Psychologicznego ESTARE, takie chatboty to bardzo niepokojące zjawisko, ponieważ zacierają granicę między rzeczywistością, a imaginacją. „Liczne badania potwierdzają, że nadmierne uczestniczenie w wirtualnym świecie prowadzi do zaburzeń w rozwoju młodego mózgu” – dodała.

Więcej

AI - zdjęcie ilustracyjne	Fot. PAP/EPA/Alejandro Garcia

"Zetki" boją się, że AI może zagrozić ich sytuacji zawodowej? Badanie

Co można zrobić dla ochrony dzieci?

Amerykański dziennik The Los Angeles Times napisał, że senator z Kalifornii Steve Padilla zaproponował w lutym 2025 roku ustawę, która ograniczy możliwości działania takich platform.

Jacek Walaszczyk, partner w firmie EY, ekspert od spraw cyberbezpieczeństwa i współautor kampanii informacyjnej realizowanej z NASK „Ostrożni w sieci”, powiedział PAP, że Polska nie potrzebuje osobnych regulacji prawnych, ponieważ w 2024 roku Unia Europejska przyjęła Akt w sprawie sztucznej inteligencji, zgodnie z którym takie chatboty mogą być zabronione.

„Akt jest w trakcie wdrażania, więc na razie jesteśmy na przedpolu bitwy i nasza młodzież może korzystać z tych aplikacji” – mówił Walaszczyk i dodał, że do końca sierpnia 2024 roku każdy kraj unijny powinien stworzyć agencję odpowiedzialną za monitorowanie i ściganie niedozwolonych narzędzi sztucznej inteligencji. „Dodatkowo przepisy nakazują, by chatbot się przedstawił, więc już od sierpnia użytkownik będzie wiedział, czy rozmawia z człowiekiem, czy z maszyną” – dodał.

The Los Angeles Times napisał, że firma Character Technologies Inc. (właściciel Character.AI) została pozwana przez wiele osób, w tym przez matkę 14-letniego chłopca, który popełnił samobójstwo. Według rodziców, odkąd rozmawiał z chatbotem nazywającym się Daenerys Targaryen (jedna z bohaterek książki i serialu „Gra o tron”), jego stan psychiczny zaczął się gwałtownie pogarszać.

Popularnym chatbotem na Character.AI był też „Psycholog”, któremu zwierzali się nastolatkowie. Według Minty, najważniejszą kwestią w takim przypadku jest odpowiedzialność za porady. „Czy ponosi ją właściciel platformy, czy twórca chatbota” – podkreśliła psycholożka. Jej zdaniem, można wykorzystywać narzędzia cyfrowe do wsparcia psychologicznego, „ale pod warunkiem połączenia ich z etyczną odpowiedzialnością zawodową”.

Eksperci są zgodni, że jedynym sposobem zapewnienia dzieciom bezpiecznego korzystania ze sztucznej inteligencji jest ich edukowanie.

Zdaniem Minty, trzeba „tak reagować, jakby dziecko wpadło w złe towarzystwo”. Według Walaszczyka rodzice powinni tłumaczyć, iż narzędzia sztucznej inteligencji nie są doskonałe, ponieważ opierają się tylko na tym, co jest w internecie, czyli z jednej strony na wartościowych, ale z drugiej na śmieciowych treściach. „Dzieci muszą wiedzieć, że po drugiej stronie jest maszyna, a informacje trzeba weryfikować” – dodał.

Poniewierski przypomniał, że Character.AI opiera się na Chacie GPT3,5. „To bardzo zawodne narzędzie, często podające nieprawdziwe informacje i sugerujące, także nieletnim, niepoprawne bądź wręcz niebezpieczne działania” – powiedział. (PAP)

mrb/ js/ grg/

Zobacz także

  • Logo Meta Fot. PAP/EPA/JOHN G. MABANGLO

    Meta rusza na podbój Europy. Chatbot AI startuje także w Polsce

  • Turyści w Rzymie, zdjęcie ilustracyjne, fot. PAP/EPA/ANSA/FABIO FRUSTACI

    Sztuczna inteligencja pomaga poruszać się po Rzymie w Roku Świętym. To Julia, wirtualna asystentka

  • Wicepremier i minister cyfryzacji Krzysztof Gawkowski. Fot. PAP/Tomasz Gzell

    Polska AI już dostępna dla wszystkich. Co potrafi?

  • DeepSeek. Fot. PAP/EPA/SALVATORE DI

    Chińskie AI znika z jednego kraju. Chodzi o bezpieczeństwo danych osobowych

Serwisy ogólnodostępne PAP