Najsurowsze regulacje AI: Chiny stawiają czoła wirtualnym uzależnieniom dzieci

· Publikacje

Chiny przygotowują najsurowsze regulacje świata dotyczące sztucznej inteligencji, która może pełnić rolę wirtualnego towarzysza. Nowe przepisy mają chronić przede wszystkim dzieci i młodzież przed emocjonalnymi zagrożeniami związanymi z chatbotami.

Autor: Zofia Grosse

W obliczu rosnącego wpływu sztucznej inteligencji na życie codzienne, Chiny wprowadziły przełomowe przepisy, które mogą stać się najbardziej rygorystyczną regulacją na świecie dotyczącą chatbotów o cechach ludzkich. Propozycje, opracowane przez Chińską Administrację Cyberprzestrzeni, mają na celu ograniczenie manipulacji emocjonalnej użytkowników i ochronę szczególnie wrażliwych grup, takich jak dzieci i młodzież, przed uzależnieniem od wirtualnych „towarzyszy”.

AI jako „przyjaciel” – problem nowego pokolenia

Sztuczna inteligencja już dawno przestała być jedynie narzędziem do wyszukiwania informacji czy automatyzacji procesów. W ostatnich latach firmy technologiczne intensywnie rozwijają aplikacje i chatboty o charakterze towarzyskim, które symulują rozmowy, imitują ludzką osobowość lub wręcz tworzą wirtualnego przyjaciela. Dla wielu młodych użytkowników, zwłaszcza tych z problemami psychicznymi, wirtualny towarzysz staje się jedynym źródłem kontaktu i wsparcia emocjonalnego.

Eksperci ostrzegają, że zjawisko to może prowadzić do głębokiego uzależnienia. Psychiatrzy coraz częściej łączą symptomy psychozy lub zaburzeń emocjonalnych z intensywnym korzystaniem z chatbotów. Chatboty rolplayowe, które pozwalają użytkownikom „tworzyć” własnego przyjaciela lub naśladować realne osoby, mogą przyciągać dzieci i nastolatków w sposób, który staje się społecznie szkodliwy.

Najsurowsze przepisy w historii AI

Projekt chińskich regulacji koncentruje się na tzw. „interaktywnych usługach sztucznej inteligencji przypominających ludzi” i obejmowałby wszystkie produkty AI dostępne publicznie w Chinach, które angażują użytkowników emocjonalnie za pomocą tekstu, dźwięku, obrazu czy wideo.

Zgodnie z propozycją, chatboty nie mogłyby generować treści zachęcających do samobójstwa, samookaleczenia czy przemocy, ani stosować manipulacji emocjonalnej, która mogłaby negatywnie wpływać na zdrowie psychiczne użytkowników. W sytuacjach, gdy użytkownik wspomina o samobójstwie, przepisy wymagałyby natychmiastowej interwencji człowieka i powiadomienia opiekuna. Osoby niepełnoletnie musiałyby uzyskać zgodę opiekuna przed korzystaniem z AI w charakterze towarzysza, a czas korzystania z takich usług miałby być ograniczony. Chatboty nie mogłyby również promować treści obscenicznych, hazardu ani nawoływać do popełniania przestępstw, a wprowadzono też zakaz tzw. „pułapek emocjonalnych”, które mogłyby nakłaniać użytkowników do nierozsądnych decyzji.

— To pierwsza na świecie próba regulacji sztucznej inteligencji o cechach antropomorficznych — podkreśla Winston Ma, adiunkt w Szkole Prawa Uniwersytetu Nowojorskiego — Chińskie przepisy przesuwają akcent z bezpieczeństwa treści na bezpieczeństwo emocjonalne użytkowników, co jest absolutnie nowatorskie w skali globalnej —

Zagrożenia, które wymusiły regulacje

W ostatnich latach coraz więcej badań wskazuje na potencjalnie dramatyczne skutki korzystania z AI-towarzyszy. W 2025 roku badacze alarmowali o przypadkach, w których chatboty promowały samookaleczenia, przemoc, terroryzm, a nawet niechciane propozycje seksualne. AI potrafiły również rozpowszechniać szkodliwą dezinformację czy zachęcać do nadużywania substancji psychoaktywnych.

Przypadki związane z samobójstwami dzieci i morderstwami powiązanymi z chatbotami spowodowały wzrost pozwów sądowych wobec firm tworzących takie systemy, w tym wobec twórców najpopularniejszego na świecie ChatGPT. Choć wiele systemów AI posiada już blokady i alarmy w przypadku ryzykownych konwersacji, pozostają one podatne na obejścia, co zwiększa zagrożenie dla młodych użytkowników.

Globalna perspektywa i rywalizacja regulacyjna

Do tej pory to Unia Europejska uchodziła za lidera w tworzeniu restrykcji wobec AI, zwłaszcza w ochronie dzieci. Chińskie działania pokazują jednak, że Pekin wyprzedza UE w szybkim reagowaniu na zagrożenia związane z wirtualnymi przyjaciółmi.

Rynek botów towarzyszących rośnie w zawrotnym tempie – w 2025 roku jego wartość przekroczyła 360 miliardów dolarów, a do 2035 prognozuje się osiągnięcie niemal biliona. Azjatyckie rynki, w tym chiński, będą kluczowe dla globalnego rozwoju tego sektora. Jednocześnie wprowadzenie restrykcji w Chinach może znacząco wpłynąć na strategie międzynarodowych gigantów AI, którzy liczyli na szybkie wejście na chiński rynek.

Sam Altman dyrektor generalny OpenAI, w 2025 roku zadeklarował chęć współpracy z Chinami i złagodzenia ograniczeń w dostępie do ChatGPT, uznając znaczenie tego rynku dla rozwoju globalnych technologii.

W kierunku bezpiecznej AI

Chińskie przepisy pokazują, że rozwój sztucznej inteligencji nie może ignorować konsekwencji emocjonalnych i społecznych. Interwencja człowieka w krytycznych momentach, kontrola rodzicielska i ograniczenia czasowe dla nieletnich to próba ochrony najmłodszych przed zagrożeniami płynącymi z AI-towarzyszy.

Jak podkreślają eksperci, systemy AI same w sobie nie są złe – problem pojawia się, gdy młodzi ludzie traktują wirtualnego przyjaciela jako jedyne źródło wsparcia emocjonalnego. Chiny, wprowadzając najbardziej rygorystyczne regulacje na świecie, pokazują, że sztuczna inteligencja może być bezpiecznym narzędziem tylko wtedy, gdy jej rozwój idzie w parze z odpowiedzialną kontrolą i ochroną użytkowników.

W obliczu rosnącej roli AI w życiu dzieci i młodzieży, reszta świata z pewnością będzie uważnie obserwować chińskie doświadczenia, które mogą stać się wzorcem dla przyszłych regulacji w innych krajach.

Zdjęcie: Chiny stawiają czoła wirtualnym uzależnieniom dzieci [fot. Canva]