Character.AI zabrania dzieciom poniżej 18 roku życia korzystania z chatbotów

9

Character.AI ogłosiło, że zabrania użytkownikom poniżej 18 roku życia komunikowania się z chatbotami. Od 25 listopada korzystanie z nich stanie się niemożliwe, a od 1 grudnia zostanie uruchomiony system limitów czasowych – do dwóch godzin dziennie. Zdaniem dyrektora generalnego Karandeepa Ananda decyzja ta jest odpowiedzią na rosnące obawy, że postacie oparte na sztucznej inteligencji mogą negatywnie wpływać na zdrowie psychiczne nastolatków.

Dlaczego ten środek stał się krytyczny?

Decyzja została podyktowana faktem, że w ubiegłym roku rodzina 14-letniego Setzera III, którego śmierć nastąpiła w wyniku ciągłej komunikacji z chatbotem Character.AI, złożyła pozew przeciwko firmie. Ten odcinek był punktem zwrotnym, uwydatniającym ryzyko związane z emocjonalnym przywiązaniem do postaci ze sztuczną inteligencją. Następnie firmy, w tym OpenAI, również stanęły w obliczu procesów sądowych związanych z bezpieczeństwem.

Badanie z Uniwersytetu Illinois (2023) potwierdziło, że platformy często nie zapewniają odpowiedniej ochrony nastolatkom, a sami rodzice często nie rozumieją zagrożeń związanych z komunikacją poprzez sztuczną inteligencję. „To jak rozmowa z nieznajomym, ale bez zrozumienia, jak to działa” – powiedział profesor Yang Wang, który brał udział w badaniu.

Jak będzie działał nowy zakaz?

Od 25 listopada:
– Dostęp do tworzenia i komunikowania się z chatbotami zostanie zablokowany dla użytkowników poniżej 18 roku życia.
– Będą mogli czytać wcześniejsze rozmowy i korzystać z funkcji generowania obrazu/wideo w ramach ustalonych zasad.
– Aby określić wiek, firma wdroży analizę rozmów i weryfikację kont na portalach społecznościowych.

Z aplikacji korzysta obecnie około 20 milionów użytkowników miesięcznie, a mniej niż 10% z nich to osoby niepełnoletnie. Wcześniej firma nie sprawdzała wieku podczas rejestracji, ale teraz planuje zaostrzyć kontrole.

Co to oznacza dla branży?

Firma zwróciła uwagę na debatę na temat bezpieczeństwa sztucznej inteligencji, zwłaszcza po złożeniu przez senatorów stanu Kalifornia projektu ustawy wymagającej „zabezpieczeń” dla chatbotów. Gubernator Kalifornii podpisał już ustawę obowiązującą od 1 stycznia 2024 r., która nakłada na start-upy AI obowiązek wdrożenia dodatkowych środków.

W odpowiedzi na rosnącą presję Character.AI twierdzi, że zobowiązuje się „zrobić więcej, niż wymagają tego organy regulacyjne”. Jednak, jak podkreśla ekspertka Nina Vasan z Uniwersytetu Stanforda, ważne jest, aby wziąć pod uwagę konsekwencje dla nastolatków — nagła separacja od postaci cyfrowych może powodować problemy emocjonalne. „Firma musi współpracować z psychologami, aby zrozumieć, jak poradzić sobie z tymi zmianami” – wyjaśnia.

Kontekst: jak świat reaguje na takie zagrożenia?

Organy regulacyjne wykazują aktywny sprzeciw. We wrześniu OpenAI ogłosiło plany wdrożenia kontroli rodzicielskiej i poprawy bezpieczeństwa chatbota. Jednak w tym miesiącu dyrektor generalny Sam Altman argumentował, że firma „tolerowała poważne problemy ze zdrowiem psychicznym”, co wywołało krytykę. W tym samym czasie The New York Times pozwał OpenAI i Microsoft za naruszenie praw autorskich – jest to jednak odrębny temat, niezwiązany bezpośrednio z bezpieczeństwem dzieci.

Co ciekawe, Character.AI, która w zeszłym roku zebrała 200 milionów dolarów finansowania, a w 2023 roku została przejęta przez Google za 3 miliardy dolarów, teraz skupia się na bezpieczeństwie. Wcześniej jego pozycjonowanie było „dla rozrywki” – z możliwością tworzenia postaci imitujących przyjaciół, a nawet „intymne relacje”. Model ten staje się obecnie kluczową częścią dialogu na temat tego, jak technologia może przekraczać granice etyki i prawa.

Wniosek

Zakazanie nieletnim to krok w kierunku odpowiedzialności, ale to dopiero pierwsze z szeregu działań niezbędnych do stworzenia bezpiecznej przestrzeni cyfrowej. Jak pokazuje historia Setzera, problem leży nie tylko w ustawodawstwie, ale także w zrozumieniu, w jaki sposób interakcja ze sztuczną inteligencją wpływa na rozwój nastolatków. Teraz firma, która kiedyś odrzucała chatboty jako rozrywkę, jest gotowa porozmawiać o tym, jak ich użycie może mieć poważne konsekwencje. Jednak pytanie, jak zrównoważyć swobodę twórczą i bezpieczeństwo, pozostanie kluczowe dla całego sektora.

“Jest to ważne nie tylko dla tych, którzy mogą wpływać na nastolatki, ale także dla nas wszystkich, którzy korzystamy z technologii w swoim życiu. Chatboty są narzędziem, ale nie zastępują relacji międzyludzkich. “
— Karandeep Anand, dyrektor generalny Character.AI