Character.AI заборонить підліткам спілкуватися з його чат-ботами AI

Character.AI заборонить підліткам спілкуватися з його чат-ботами AI


Після різкої критики щодо типу взаємодії молодих людей з однолітками в Інтернеті сайт чат-ботів Character.ai блокує підліткам взаємодію з віртуальними персонажами.

Заснована у 2021 році платформа використовується мільйонами людей для спілкування з чат-ботами на основі штучного інтелекту (ШІ).

Але на нього загрожує низка позовів від батьків у США, у тому числі через смерть підлітка, дехто називає це «явною та реальною небезпекою» для молоді.

Тепер Character.AI каже, що з 25 листопада молодші 18 років зможуть лише створювати контент, наприклад відео зі своїми персонажами, а не розмовляти з ними, як вони можуть робити зараз.

Активісти безпеки в Інтернеті привітали цей крок, але сказали, що ця функція взагалі не повинна була бути доступною для дітей.

Character AI заявив, що вносить зміни після «звітів і відгуків від регуляторів, експертів з безпеки та батьків», які висвітлюють занепокоєння щодо взаємодії його чат-ботів з підлітками.

Експерти вже попереджали про чат-ботів зі штучним інтелектом, кажучи, що вони можуть щось вигадувати, надмірно підбадьорювати та виявляти співчуття, що становить ризик для молодих та вразливих людей.

«Сьогоднішнє оголошення є продовженням нашої спільної віри в те, що ми повинні продовжувати створювати найбезпечнішу платформу штучного інтелекту на планеті для розважальних цілей», — сказав BBC News керівник Character.AI Карандіп Ананд.

Він сказав, що безпека штучного інтелекту є «рухомою мішенню», але компанія застосувала «агресивний» підхід із батьківським контролем і огорожею.

Група онлайн-безпеки Internet Matters привітала цю заяву, але сказала, що заходи безпеки слід було ввести з самого початку.

У ньому додано: «Наше власне дослідження показує, що діти піддаються впливу шкідливого контенту та піддаються ризику, коли взаємодіють із штучним інтелектом, включаючи чат-боти штучного інтелекту».

Раніше Character.AI піддавався критиці за розміщення потенційно шкідливих або образливих чат-ботів, з якими діти можуть спілкуватися.

Аватари, які імітують британських підлітків Бріанну Гі, вбиту в 2023 році, і Моллі Рассел, яка покінчила з собою у віці 14 років після перегляду матеріалів про самогубство в Інтернеті, були виявлені на сайті в 2024 році, перш ніж були видалені.

Пізніше, у 2025 році, Бюро журналістських розслідувань (TBIJ) знайшло чат-бота на основі педофіла Джеффрі Епштейна, який зареєстрував понад 3000 чатів з користувачами.

Видання повідомило, що аватар “Бесті Епштейн” продовжував фліртувати зі своїм репортером після того, як вона сказала, що вони діти. Це був один із кількох ботів, позначених TBIJ, які пізніше були видалені Character.AI.

Фонд Моллі Роуз, заснований в пам’ять про Моллі Рассел, поставив під сумнів мотиви Мунка.

Виконавчий директор компанії Енді Берроуз сказав: «Технічна фірма знову зіткнулася з постійним тиском з боку ЗМІ та політиків, щоб зробити правильні речі, і, схоже, Character AI тепер вирішує діяти до того, як про це скажуть регулятори».

Пан Ананд сказав, що нова увага компанії зосереджена на забезпеченні «ще глибшого ігрового процесу». [and] функції «рольової розповіді» для підлітків – додавання цих «було б набагато безпечнішим, ніж те, що ми могли б зробити з відкритими ботами».

Також з’являться нові методи перевірки віку, і компанія фінансуватиме нову дослідницьку лабораторію безпеки ШІ.

Експерт із соціальних мереж Метт Навара сказав, що це «дзвінок для пробудження» для індустрії штучного інтелекту, яка переходить від «бездозвільних інновацій до посткризового регулювання».

«Коли платформа, яка створила підлітковий досвід, все ж відключається, це означає, що відфільтрованих чатів уже недостатньо, коли емоційний потяг технологій сильний», — сказав він BBC News.

Він сказав: «Справа не в недоліках контенту. Справа в тому, як боти ШІ імітують реальні стосунки та розмивають межі для молодших користувачів».

Пан Навара також сказав, що більшим завданням для Character.AI буде створення привабливої ​​платформи ШІ, якою підлітки все ще хочуть користуватися, а не звертатися до «менш безпечних альтернатив».

Тим часом доктор Номіша Куріан, який досліджує безпеку штучного інтелекту, сказав, що заборона підліткам користуватися чат-ботами була «розумним кроком».

“Це допомагає відокремити творчу гру від більш особистого, емоційно чутливого обміну”, – сказав він.

«Це дуже важливо для молодих користувачів, які все ще вчаться долати емоційні та цифрові кордони.

«Нові заходи Character.ai можуть відображати стадію зрілості в індустрії штучного інтелекту – безпека дітей визнається невідкладним пріоритетом для відповідальних інновацій».



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *