Skip to content
On this page

【人工智能】AGI或将于2027年到来 | Jared Kaplan | Anthropic首席科学家 | 人工智能加速发展 | 模型视野拓宽 | 缩放定律 | 超越摩尔定律 | 人工智能安全

知名科技评论员阿齐姆·阿扎尔近日采访了人工智能公司 Anthropic 的联合创始人兼首席科学家贾里德·卡普兰,后者是 Claude 系列模型背后的核心人物。卡普兰在访谈中分享了许多爆炸性观点,他与Anthropic CEO 达里奥·阿莫代伊一致认为,通用人工智能(AGI)可能比人们想象的更快到来,甚至可能在未来的两三年内实现,也就是2027年左右,这个预测远超许多专家预期。

卡普兰详细阐述了人工智能能力演进的两个关键维度:一是 AI 能够在多大范围的环境中运作;二是 AI 能处理多么复杂的任务。他指出,AI的“视界”(horizon)正在不断延伸,这得益于模型通用智能水平的提升、上下文长度的显著增加以及通过强化学习来训练 AI 完成更复杂的任务。他举例说,Anthropic 内部产品 Claude Code 已经能够搜索整个代码库、修改不同功能模块的代码,甚至还能自己迭代测试代码。

卡普兰认为,尽管过去几年 Scaling Laws 一直指导着大模型研发,但目前还没有看到任何Scaling Laws失效的迹象。他认为,只要能同时保证模型规模、计算资源和训练数据这三个要素都跟得上,那么继续扩大投入,模型的性能仍然会得到提升。不过,他也指出,最终人们将用尽高质量的训练数据,Scaling Laws可能就会因为“营养不良”而失效。即便如此,算法的持续改进和硬件的飞速发展也可能帮助我们“续命”。

卡普兰预测,新一代 Claude 模型可能在六个月左右就会问世。他解释说,这得益于后训练和强化学习阶段的不断改进,以及预训练阶段的效率和模型智能的不断提高。此外,卡普兰高度认可test-time scaling的重要性,他观察到像 Claude 3.7 这样的模型,每当思考量翻倍,就能在任务表现上获得恒定的提升。Anthropic 在他们的 Claude 3.7 Sonnet 模型中首次引入了名为“思考时间 (thinking time)”的功能,这也是他们第一个具备混合推理 (hybrid reasoning)能力的模型。

谈及国际竞争,卡普兰对 DeepSeek 的进展并不感到惊讶,他认为全球 AI 竞争格局正在快速变化。他指出,算力限制可能会让西方公司在可用计算量方面处于优势,这可能会让 DeepSeek 和其他地区的公司更难竞争。对于AI安全,卡普兰详细解释了 Anthropic 的“负责任的扩展政策 RSP”。他透露 Claude 3.7 Sonnet 正在接近其中的一些安全阈值,这意味着未来的 Claude 模型可能需要集成更多、更强的安全保护措施才能发布。Anthropic 正在加大研究,建立可解释性 (Interpretability) 和与Constitutional AI相关的AI 监督 (AI Supervision)技术。

卡普兰赞同阿扎尔提出的未来 AI 图景:不是一个单一的超智能体,而是数百万个能力各异、相互作用的 AI 系统所组成的复杂生态系统。他担忧未来社会充斥着越来越多我们不完全理解、并且相互连接的 AI 系统时,事情可能会以非常难以预测的方式脱轨。卡普兰认为 AI 从根本上来说是非常赋能的,应该是可被大家广泛所使用的。但随着我们能把越来越多的人类认知活动通过数字化的方式表达出来,并且交给 AI 去完成,那么最终的效果可能与我们过去理解的“自动化”有很大不同,需要更多实证研究来理解 AI 的应用效果。

Released under the MIT License.