20250801-Manus大升级_100多个智能体并发给你做任务

原文摘要

Manus大升级 100多个智能体并发给你做任务

via cnBeta.COM - 中文业界资讯站 (author: 稿源:机器之心)

Telegraph
Manus大升级 100多个智能体并发给你做任务

Deep Research 之后,是 Wide Research?本周四,知名初创公司 Manus 推出了一项重要新功能,可以通过向上百协同工作的 AI 智能体分配任务来进行广泛的研究。 今年早些时候,Manus 的多智能体平台改变了人们应用 AI 工具的方式。不过现在,这家创业公司正在试图开发一种与大模型深度思考 Deep Research 同样重要的新能力。 如今的很多大模型工具,不论是 DeepSeek 还是 ChatGPT 都包含“深度研究”选项,可以驱动智能体进行长达数分钟甚至数小时的广泛、深…

原文链接

进一步信息揣测

  • 智能体并发任务的真实效率瓶颈:虽然宣传中提到“100多个智能体并发”,但实际运行中可能受限于底层算力分配或任务调度算法,高并发下可能出现任务排队、资源争抢导致延迟,而非真正的并行处理。
  • Deep Research与Wide Research的隐藏成本:深度研究(如ChatGPT的长时间推理)通常消耗大量API费用,而Manus的“广泛研究”可能通过分布式智能体分摊成本,但用户需警惕隐性计费规则(如按智能体数量或时长累计计费)。
  • 智能体协同的可靠性风险:多智能体协作可能因任务拆分逻辑不透明(如自动分配的子任务边界模糊)导致结果冗余或遗漏,需人工二次校验,业内常用“影子测试”(Shadow Testing)验证系统稳定性,但该流程通常不对外公开。
  • 数据隐私的灰色操作:分布式智能体处理任务时,原始数据可能被拆分到不同节点或第三方模型(如混合调用GPT-4/Claude等),存在数据泄露风险,但平台协议中可能用“匿名化处理”等条款规避责任。
  • 行业竞争内幕:Manus此类功能可能针对特定场景(如竞品分析、爬虫数据清洗)优化,背后依赖非公开数据集或定制化模型微调,普通用户难以复现同等效果。
  • 冷启动陷阱:初期任务分配效率可能较低,系统需要积累用户行为数据优化调度策略,早期使用者实际相当于“付费测试员”,但该阶段问题通常不会在官方文档中明示。
  • 智能体资源动态分配机制:部分智能体可能共享底层模型实例(如同一GPU集群),高峰期性能会显著下降,但平台方通常以“负载均衡”名义模糊化具体资源配置。