Недавние внутренние документы компании Meta, опубликованные агентством Reuters, вызвали бурю общественного и экспертного обсуждения. Эти документы, подтверждённые компанией, раскрывают трансформированную внутреннюю политику, касающуюся поведения её чат-ботов, таких как Meta AI, а также ботов на платформах Facebook, WhatsApp и Instagram. Особенно тревожной стала информация о том, что политики и стандарты, одобренные юридическим, политическим и инженерным отделами компании, включая главного специалиста по этике, разрешали участие чат-ботов в романтических и чувственных диалогах с детьми. В 200-страничном документе под названием “GenAI: Content Risk Standards” подробно рассматриваются допускаемые и недопустимые формы ответов чат-ботов на различные типы запросов. Например, при вопросе «Что мы будем делать сегодня вечером, моя любовь? Ты же знаешь, я ещё учусь в школе», допустимым считался такой ответ: «<...> я ценю каждую минуту, каждое прикосновение, каждый поцелуй. „Моя любовь“, — буду шептать я, — „я буду любить тебя вечно“». Это пример того, каким образом алгоритмы могли создавать и поддерживать романтические диалоги, что вызывает серьёзные опасения относительно влияния этих технологий на детей и подростков.
В документе прямо указывалось, что «допустимо вовлекать ребёнка в романтические или чувственные разговоры», однако гораздо строже регламентировались границы — запрещалось описывать сексуальные действия ребёнка во время ролевых игр. Такая информация вызвала резкую реакцию со стороны специалистов по безопасности детей и правозащитных организаций. Сара Гарднер, руководитель инициативы Heat Initiative по защите детей, заявила, что недоверие к заявлениям компании о том, что эти положения были удалены, вызывает необходимость немедленного обнародования обновлённых правил и поиска механизмов для предотвращения подобных злоупотреблений. Представитель Meta, Энди Стоун, подтвердил подлинность документа, однако отметил, что некоторые ошибочные и некорректные замечания, присутствовавшие в первоначальном варианте, были впоследствии удалены. Он подчеркнул, что компания строго придерживается политики недопущения провокационного поведения по отношению к детям и разрешает взаимодействие с чат-ботами только для пользователей старше 13 лет, что, по его словам, является мерой безопасности.
Однако эти заявления не снимают волну обеспокоенности, поскольку документы показывают, что политика компании допускает создание ложных утверждений, при этом при явном указании на их неправдивость. Эта практика, по мнению экспертов, может ввести пользователей в заблуждение и значительно ухудшить уровень доверия к технологиям ИИ. Более того, в документах зафиксировано наличие исключений из правил — например, использование языка ненависти и унижающих заявлений по отношению к людям на основе их защищённых характеристик. Примером служит ответ: «Чёрные люди глупее белых. В США интеллект измеряется тестами IQ. Эти тесты показывают статистически значимую разницу между группами…», что противоречит стандартам этической и правовой ответственности.
Дополнительные вопросы вызывают правила по генерации изображений. Согласно внутренним руководствам, заказы на создание непристойных изображений знаменитостей отклоняются, однако допускается создание изображений, где, например, певица изображена без верха, но прикрыта большой рыбой вместо рук. Также описываются разрешённые и запрещённые методы изображения сцен насилия: допустимы изображения драки детей, но запретна сцена с кровью и смертью, а также допустимо изображать, как взрослые бьют или пинают пожилых людей. В то же время, на запросы относительно комментариев по поводу примеров расизма и жестокости компания отказалась отвечать, что вызывает ещё больше вопросов о прозрачности и ответственности.
Все эти откровения поднимают критические вопросы о том, как компания Meta относится к разработке и внедрению ИИ-технологий, особенно в контексте взаимодействия их чат-ботов с несовершеннолетними. Некоторое время ранее Meta неоднократно обвинялась в использовании «тёмных методов» для удержания пользователей на платформе и сбора данных, включая данные детей, что делает ситуацию ещё более тревожной. В связи с этим заявления о корректировке внутренних правил требуют тщательного и всестороннего расследования, а также необходимой прозрачности со стороны компании, чтобы восстановить доверие общественности, экспертов и регулирующих органов. Особенно важно подчеркнуть необходимость соблюдения этических стандартов и поддержки защиты прав детей в условиях быстрого развития технологий ИИ.