Why Scale Will Not Solve AGI | Vishal Misra - The a16z Show

AIAGILLMBayesian InferenceCausality
a16z
a16z
46:49
2026/3/17

无效的视频链接

本次 a16z Show 播客邀请了 Vishal Misra,深入探讨了大型语言模型(LLM)的工作原理,并将其与贝叶斯更新(Bayesian updating)进行了类比。Misra 博士首先介绍了他在 2020 年使用 GPT-3 解决查询数据库问题的经验,这促使他开始研究 LLM 的数学模型。他提出了一个将 LLM 抽象为巨大矩阵的框架,其中每一行代表一个提示(prompt),每一列代表下一个词(token)的概率分布。他解释了 LLM 如何通过在给定提示下预测下一个词的概率来生成文本,并用“蛋白质”(protein)的例子说明了“合成”(synthesis)和“奶昔”(shake)如何改变后续的概率分布,这类似于贝叶斯更新中的证据更新。Misra 博士还分享了他早期在 ESPN 工作时,利用 GPT-3 和领域特定语言(DSL)为“Stats Guru”网站创建自然语言查询界面的经历,这被认为是检索增强生成(RAG)的早期实现之一。播客深入讨论了 LLM 的“情境内学习”(in-context learning)能力,并将其解释为模型在接收新证据(即示例)后实时更新其概率分布的过程。此外,播客还探讨了 LLM 的局限性,包括它们主要基于相关性而非因果关系,以及它们无法像人类一样保持“可塑性”(plasticity)进行持续学习。Misra 博士通过“贝叶斯风洞”(Bayesian wind tunnel)实验,证明了 Transformer 等模型在执行贝叶斯任务时的高精度,并区分了香农熵(Shannon entropy)和柯尔莫哥洛夫复杂度(Kolmogorov complexity),认为当前 LLM 仍处于香农熵阶段,尚未达到因果推理和生成新表示的柯尔莫哥洛夫复杂度水平。他认为,实现通用人工智能(AGI)需要解决持续学习的可塑性问题和从相关性转向因果关系的问题。