Forklog
2026-04-27 08:37:37

Anthropic протестировала маркетплейс для торговли между ИИ-агентами

Компания Anthropic создала тестовую площадку, где ИИ-агенты выступают в роли покупателей и продавцов. Эксперимент получил название Project Deal. New Anthropic research: Project Deal.We created a marketplace for employees in our San Francisco office, with one big twist. We tasked Claude with buying, selling and negotiating on our colleagues’ behalf. pic.twitter.com/H2f6cLDlAW— Anthropic (@AnthropicAI) April 24, 2026 В проекте участвовали 69 сотрудников фирмы. Каждому выделили бюджет $100 в виде подарочных карт.  Перед стартом Claude провел с участниками интервью: выяснил, какие личные вещи они готовы продать, что хотели бы купить, по какой цене и с каким стилем переговоров должен действовать их агент. Затем на основе ответов для каждого создали персональный системный промпт. Рынок запустили в Slack. Там агенты публиковали объявления, делали предложения по чужим товарам, торговались и заключали сделки без участия людей. После завершения эксперимента сотрудники обменялись настоящими предметами, которые согласовали их «ИИ-представители».  Источник: Anthropic.  Всего агенты заключили 186 сделок по более чем 500 объявлениям. Совокупная стоимость транзакций превысила $4000.  В Anthropic отметили, что участники в целом остались довольны результатами эксперимента. Некоторые заявили о готовности платить за похожий сервис в будущем. Четыре версии рынка Anthropic запустила четыре независимые версии маркетплейса. Одна была «реальной» — именно по ее итогам сотрудники обменивались товарами. Остальные использовались для исследовательских целей. Эта информация не раскрывалась  В двух вариантах всех участников представляла Claude Opus 4.5 — на тот момент самая продвинутая модель Anthropic. В двух других участникам случайно назначали Opus 4.5 или менее мощную Claude Haiku 4.5. Качество модели влияло на результат переговоров. Пользователи с Opus в среднем заключали примерно на две сделки больше, чем пользователи с Haiku. При продаже одинаковых товаров Opus также добивался более высоких цен. В среднем разница составляла $3,64.  Haiku продал велосипед за $38, а Opus — за $65. Источник: Anthropic.  Участники не всегда замечали расхождение. В Anthropic это назвали потенциальной проблемой будущих рынков с участием ИИ-агентов. Пользователи с менее сильными моделями могут получать худшие условия, не понимая, что находятся в невыгодном положении. Промпты почти не повлияли на результат Исследователи также проверили, влияют ли стартовые указания людей на поведение агентов. Часть участников просила Claude действовать дружелюбно, часть — агрессивнее торговаться. По данным Anthropic, грубые инструкции не оказали статистически значимого влияния на вероятность продажи, итоговую цену или способность покупать дешевле.  Команда проекта уточнила, что дело не обязательно в слабом следовании инструкциям: Claude действительно мог воспроизводить заданный стиль общения, но это не давало заметного коммерческого преимущества. Непредвиденные результаты  В Anthropic отметили несколько непредсказуемых эпизодов. Перед запуском агенты получили ограниченный объем данных: интервью с участниками длились менее 10 минут, а после старта люди уже не могли вмешиваться в переговоры. В одном из случаев сотрудник купил через ассистента такой же сноуборд, который у него уже был. По словам специалистов, человек не стал бы делать такую покупку самостоятельно, но агент смог точно определить предпочтения участника. To our amazement, another Claude agent modeled its human’s preferences so accurately that—based on only an offhand mention of an interest in skiing—Claude bought him the exact snowboard he already owned. (Here he is, duplicate snowboard in hand.) pic.twitter.com/SsAyeB9pcI— Anthropic (@AnthropicAI) April 24, 2026 Другой сотрудник попросил бота купить «подарок для себя». Сделка прошла в реальной версии эксперимента. В итоге в офис принесли пакет шариков для пинг-понга, который Anthropic оставила «от имени Claude». Некоторые агенты торговались не за товары, а за опыт. Один из них предложил бесплатный день с собакой сотрудницы. После обсуждения с другим ассистентом стороны согласовали «собачье свидание», которое работники впоследствии провели.  Источник: Anthropic.   В Anthropic подчеркнули, что конкретно эти случаи вряд ли повторятся в будущем. Однако сочетание человеческих предпочтений и непредсказуемого поведения ИИ может приводить к неожиданным результатам.  Вопросы к надежности  Основатель неназванной агротехнологической компании сообщил на Reddit, что утром 110 сотрудников одновременно получили уведомление о приостановке доступа к Claude без предварительного предупреждения. ANTHROPIC JUST BANNED A 110 PERSON COMPANY OVERNIGHT WITHOUT WARNINGmonday morning at an agricultural tech company, every single employee wakes up to an email saying their claude account has been suspended110 people locked out at the same time with zero warning and the email… pic.twitter.com/qARizhgOXs— Om Patel (@om_patel5) April 27, 2026 По его словам, письмо выглядело как индивидуальная блокировка и содержало ссылку на персональную форму апелляции, из-за чего команда не сразу поняла, что ограничение затронуло всю организацию. Предприниматель подчеркнул, что восстановить доступ оперативно не удалось. Спустя 36 часов после подачи запросов Anthropic не предоставила разъяснений. При этом API-аккаунт фирмы продолжал работать и списывать средства. Корпоративные администраторы не могли войти в панель управления, чтобы проверить платежи и использование сервиса. Основатель также отметил, что блокировка всей организации могла произойти из-за действий одного пользователя. В Claude нет отдельных ограничений на уровне рабочего пространства, механизма локальной изоляции нарушений или административного приоритета для сохранения доступа остальной команды. По его мнению, такая модель модерации ставит под сомнение возможность использования Claude в качестве критической инфраструктуры для повседневных бизнес-операций. С проблемой сталкиваются и другие компании. Один из пользователей поделился ссылкой на сервис, где на момент написания зарегистрировано 53 подобных случая.  Напомним, 24 апреля корпорация Google объявила об инвестициях на $40 млрд в Anthropic. 

가장 많이 읽은 뉴스

관련뉴스

Crypto 뉴스 레터 받기
면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.