Anthropic представила функцию Dreaming для платформы Claude Managed Agents. Она нужна для того, чтобы ИИ-агенты Claude могли разбирать свои прошлые задачи и улучшать работу в следующих сессиях.
Dreaming не меняет саму модель Claude и не переобучает нейросеть. Вместо этого система просматривает прошлые сессии агента, ищет повторяющиеся ошибки, удачные решения и слабые места в работе.
После анализа агент создаёт текстовые инструкции, которые Anthropic называет «плейбуками». Это своего рода памятки для будущих задач: какие шаги сработали, где были ошибки и как действовать эффективнее в похожей ситуации.
Anthropic объясняет, что функция должна помочь ИИ-агентам стабильнее выполнять длинные и сложные задания. В таких сценариях качество работы часто падает из-за большого контекста, множества шагов и накопленных ошибок.
На презентации компания показала пример с несколькими ИИ-агентами, которые выполняли симуляцию посадки дрона на Луну. После неудачных попыток Dreaming проанализировала прошлые действия и создала инструкцию для следующей попытки. По словам Anthropic, после этого результат стал лучше.
Вместе с Dreaming компания также представила две функции для агентов Claude: Outcomes и Multi-Agent Orchestration. Outcomes помогает проверять результат по заданным критериям, а Multi-Agent Orchestration распределяет сложные задачи между несколькими ИИ-агентами.
Проще говоря, Anthropic пытается сделать Claude не просто чат-ботом, а системой ИИ-агентов, которые могут работать над длинными задачами, анализировать ошибки и постепенно накапливать рабочие стратегии.





































