ИИ-блог Anthropic прекратил работу через месяц: в чем причина неудачи?

Компания Anthropic внезапно завершила работу над своим экспериментальным блогом Claude Explains, посвящённым функциям языковой модели Claude. Этот блог, просуществовавший чуть больше месяца, был инициирован как пилотный проект для удовлетворения запросов пользователей на образовательные материалы, одновременно преследуя маркетинговые цели. На его страницах публиковались статьи на технические темы, такие как «Упростите сложные кодовые базы с Claude». При этом Anthropic не указывала, какая часть статей была создана с помощью модели Claude, а какая – редактировалась людьми.

Согласно представителям компании, над блогом трудились специалисты и редакторы, дополнявшие черновики Claude с помощью практических примеров и контекстных знаний. Планировалось расширение тематики блога, включая креативное письмо, анализ данных и бизнес-стратегии, однако планы были изменены. Anthropic представляла Claude Explains как пример совместной работы человеческого опыта и возможностей ИИ, подчёркивая, что цель проекта не заменить специалистов, а усилить их работу.

ИИ-блог Anthropic прекратил работу через месяц: в чем причина неудачи?
Иллюстрация: Leonardo

Тем не менее, проект встретил неоднозначные отзывы. Недостаточная прозрачность относительно того, какая часть текстов была произведена ИИ, подверглась критике в социальных сетях. Некоторые пользователи усмотрели в блоге попытку автоматизировать контент-маркетинг, что подняло вопросы об этичности такого подхода. Более того, согласно данным SEO-инструмента Ahrefs, на момент закрытия блога на него ссылалось более 24 сайтов, что говорит о значительном уровне вовлечённости аудитории за короткий период существования.

Вероятно, компания Anthropic также обеспокоилась возможными негативными последствиями, связанными с неточной информацией, созданной ИИ. Уже были случаи, когда крупные медиа, такие как Bloomberg и G/O Media, публиковали недостоверные данные, генерированные искусственным интеллектом, что приводило к серьёзным репутационным потерям. Поэтому закрытие Claude Explains можно рассматривать как превентивный шаг для предотвращения подобных проблем. В результате проект показал как потенциал, так и трудности применения ИИ в создании контента, подчёркивая важность тщательной верификации и контроля за создаваемой информацией.

 

Источник: iXBT

Читайте также