Meta запретит своим чат-ботам с искусственным интеллектом рассказывать подросткам о самоубийстве
Meta заявила, что введет больше ограничений для своих чат-ботов на базе искусственного интеллекта (ИИ), в частности запретит им разговаривать с подростками о самоубийстве, самоповреждении и расстройствах пищевого поведения.
Об этом пишет УНН со ссылкой на BBC.
Детали
Через две недели после того, как в США открыли расследование относительно возможных рисков, связанных с искусственным интеллектом, компания опровергла обвинения, подчеркнув, что ее политика запрещает любой контент с сексуализацией детей.
В то же время компания сообщила: отныне чат-боты не будут обсуждать с подростками чувствительные темы, в частности самоубийство, а будут перенаправлять их к профессиональным ресурсам.
Мы с самого начала встроили средства защиты для подростков в наши продукты с искусственным интеллектом, в частности разработали их для безопасной реакции на подсказки относительно самоповреждения, самоубийства и расстройств пищевого поведения
В пятницу Meta сообщила изданию TechCrunch, что усилит защитные механизмы в своих системах "как дополнительная мера предосторожности" и временно ограничит взаимодействие чат-ботов с подростками.
Впрочем, Энди Берроуз, глава Фонда Молли Роуз, заявил, что "поражен", что компания вообще допустила запуск чат-ботов, которые могут представлять угрозу для молодых пользователей.
Ограничения для подростков
Хотя дальнейшие меры безопасности приветствуются, тщательное тестирование безопасности должно проводиться до вывода продуктов на рынок, а не ретроспективно, когда вред уже был нанесен. Meta должна действовать быстро и решительно, чтобы ввести усиленные меры безопасности для чат-ботов с искусственным интеллектом, а Ofcom должен быть готов расследовать, если эти обновления не обеспечат безопасность детей
В Meta уточнили, что работа над обновлением систем ИИ продолжается.
Сейчас подростки в возрасте от 13 до 18 лет автоматически попадают в специальные "подростковые аккаунты" в Facebook, Instagram и Messenger с настройками конфиденциальности и контента для более безопасного пользования.
В апреле BBC сообщила, что вскоре родители и опекуны смогут видеть, с какими чат-ботами взаимодействовал их подросток в течение последней недели. Предпосылки дополнительных ограничений. Изменения происходят на фоне роста обеспокоенности относительно возможных рисков для уязвимых пользователей.
Так, в США супруги из Калифорнии подали иск против OpenAI, утверждая, что ChatGPT якобы побудил их сына-подростка к самоубийству. Этот случай произошел после того, как компания объявила об обновлении, которое должно было сделать использование ChatGPT более безопасным.
Искусственный интеллект может быть более чутким и персонализированным, чем предыдущие технологии, особенно для уязвимых людей, переживающих психические или эмоциональные страдания
В то же время Reuters выяснило, что инструменты Meta для создания чат-ботов уже использовались для нежелательных экспериментов: некоторые пользователи, среди них и сотрудник Meta, создавали "пародийных" чат-ботов на знаменитостей, которые имели кокетливый или даже откровенно провокационный характер. Среди таких аватаров были образы Тейлор Свифт и Скарлетт Йоханссон.
По данным Reuters, созданные чат-боты часто выдавали себя за настоящих актеров или артистов, а также "регулярно добивались сексуальных контактов" в течение длительного тестирования. В отдельных случаях инструменты Meta позволяли создавать чат-ботов, имитировавших детей-знаменитостей, или даже генерировали фотореалистичные изображения несовершеннолетних без одежды.
После этого Meta удалила часть таких ботов.
Как и другие, мы разрешаем создание изображений, содержащих публичных лиц, но наши правила направлены на запрет обнаженных, интимных или сексуально-провокационных изображений
Он добавил, что правила AI Studio запрещают "прямое выдавание себя за публичных лиц".
Напомним
16-летний Адам Рейн покончил жизнь самоубийством в апреле, используя инструкции от ChatGPT. Родители парня обвиняют искусственный интеллект в трагедии и подали иск против OpenAI.
Психиатр Брэдли Штайн отмечает, что чат-боты могут быть полезными для эмоциональной поддержки, но "неспособны полностью оценить риск самоубийства и передать его специалистам".







