【卡帕西最新访谈】强化学习很糟但别的更糟卡帕西的最新专访放出,两个半小时信息密度

量子位看科技 2025-10-19 15:51:43

【卡帕西最新访谈】强化学习很糟但别的更糟

卡帕西的最新专访放出,两个半小时信息密度拉满。

作为特斯拉前AI总监、OpenAI创始成员,他在访谈中对强化学习、AGI、自动驾驶、LLM能力等问题给出了清晰判断,部分表述甚至有点“毒舌”,但观点非常值得摘录。

以下是他的核心观点:

1. 关于强化学习:

“强化学习远比你想象的还要糟糕。它确实很差,但其他方法更差。”

他举例说,比如让模型解一道数学题,哪怕尝试了很多错误路径,只要最后撞对了答案,强化学习就会把整条路径都当作正面样本,“这实在荒谬”。现实中,人不会做这么多无效尝试,也不会把所有步骤都一视同仁。

2. 关于大语言模型的认知缺陷:

“这些模型没有持续学习能力。”

他指出,现有LLM无法通过一次交互就掌握新知识,也无法主动整合知识。阅读时也只是预测下一个词,而不是像人一样“用信息重组形成认知模型”。他说,人类阅读一本书时,“这更像是在用提示来激发思考”,LLM做不到。

3. 关于AGI时间表与影响:

“AGI会延续2%的GDP增长,不会出现突然的‘智力爆炸’。”

他认为工业革命是物理自动化,互联网是信息自动化,而AGI是认知层的延续式自动化。“这会继续带来渐进式提升,不是爆炸式的。”

4. 关于智能体时代:

“要真正让智能体像实习生那样协作工作,还需要10年。”

现阶段的系统(如Claude、Codex等)虽然能力不错,但在认知架构、多模态理解、操作计算机完成复杂任务等方面仍有明显短板。

5. 关于自动驾驶为何还没实现:

“增加一个9,意味着几倍的工程工作量。”

他表示,自动驾驶的“演示”看起来容易,但要做到产品级稳定非常困难。哪怕从99%提升到99.9%,所需要的努力也呈指数增长。现实世界中变量太多,必须不断覆盖各种“长尾”情况。

6. 关于教育的理想状态:

“我想复制一个最好的导师体验。”

卡帕西提到自己学韩语时有过非常有效的导师,他能快速判断学生认知模型,并提出最合适的问题。“LLM目前还做不到这一点。”

他正在建设一套现代AI课程(LLM101N),希望能实现更理想的教学反馈方式。他还提到课程中的经典项目NanoChat,每行代码都需要深度思考,而现有AI总喜欢“优化”代码结构,反而会破坏原意。

整场访谈,卡帕西没有唱高调,也没有过度贬低,只是把他15年的经验和判断都摊开来说了。

完整视频与整理可见原链接:www.dwarkesh.com/p/andrej-karpathy

0 阅读:1

猜你喜欢

量子位看科技

量子位看科技

感谢大家的关注