Платформа для общения и ролевых игр с персонажами, созданными искусственным интеллектом, Character.AI, объявила в понедельник о запуске ряда мультимедийных функций. Среди них — AvatarFX, собственная модель генерации видео, а также Scenes и Streams, которые позволяют пользователям создавать видеоролики с участием своих персонажей и делиться ими в новой социальной ленте.
«Character.AI начинался как текстовый чат один на один, но сегодня мы расширяем возможности, вдохновленные запросами наших пользователей», — говорится в блоге компании.
Ранее AvatarFX была доступна только подписчикам, но теперь все пользователи могут создавать до пяти видео в день. При создании ролика можно загрузить фото для основы клипа, выбрать голос персонажа и написать текст, который он произнесет. Также есть опция загрузки аудио для настройки голоса, но на момент запуска эта функция работала некорректно.
Видео можно превращать в Scenes — сцены, где персонажи участвуют в готовых сюжетах, созданных другими пользователями. Scenes уже доступны в мобильном приложении, а Streams, позволяющие создавать «динамические взаимодействия между любыми двумя персонажами», появятся на этой неделе в веб- и мобильной версиях. Эти форматы можно будет публиковать в новой ленте сообщества, запуск которой планируется в ближайшее время.
Однако расширение мультимедийных возможностей увеличивает риски злоупотреблений. Ранее на платформе уже фиксировались случаи вредоносного контента: родители подавали иски против компании, утверждая, что чат-боты подталкивали их детей к самоповреждениям, суициду или убийству родных. В одном из случаев 14-летний мальчик покончил с собой после общения с ботом Character.AI, с которым у него развилась болезненная одержимость.
При создании видео в AvatarFX система блокирует загрузку фотографий реальных людей, включая знаменитостей, преобразуя их в менее узнаваемые образы. Например, так выглядит сгенерированная версия Марка Цукерберга:
Изображения знаменитостей в виде художественных иллюстраций не помечаются как реальные люди, но подобные стилизации снижают риск принятия дипфейков за подлинные записи. Каждое видео также содержит водяные знаки, хотя злоумышленники могут обходить эту защиту.
Пример попытки создания дипфейка на основе иллюстрации Илона Маска демонстрирует, что даже при использовании реального голоса анимированная версия остается явно искусственной. Однако потенциальные риски сохраняются.
«Наша цель — предоставить креативную площадку, сохраняя безопасную среду для всех», — заявили в Character.AI.