20250724-Anthropic联创曼恩:超级智能可能最早2028年出现

原文摘要

原文链接

进一步信息揣测

  • Scaling Law的加速秘密:模型迭代周期已从每年缩短至每季度甚至每月,关键是从传统预训练转向强化学习应用(如RLAIF),而非公开讨论中常提到的数据或算力瓶颈。
  • RLAIF的隐藏风险:Anthropic力推的自我反馈强化学习虽可减少人类干预,但行业内部担忧其可能引发模型失控或价值观漂移,这一风险在公开报告中常被弱化。
  • 五级安全评估体系内幕:第五级(人类灭绝级)的实际判定标准未公开,但内部可能已设定触发阈值(如模型自主性突破特定阈值),远早于公众认知的AGI阶段。
  • 经济图灵测试的实操标准:50%高薪岗位“盲测”通过率是Anthropic内部定义的AGI临界点,但未透露测试具体涵盖哪些岗位(如律师、基金经理等关键高薪职业)。
  • 离开OpenAI的真实动机:曼恩未明言的是,Anthropic创立核心团队对OpenAI商业化路线的不满,尤其针对GPT-3早期版本安全措施不足的争议。
  • AGI时间表的非公开信号:Anthropic可能通过招聘动向(如大量招募经济学家和社会学家)暗示其内部AGI预期早于公开预测(2030年前)。
  • 行业最大瓶颈的潜台词:当前AI研究瓶颈并非技术,而是“对齐成本”——顶级实验室每年需投入数亿美元用于人工标注和伦理审查,中小企业难以承担。