文章从人工智能的两大分支——符号主义与联结主义——展开,回顾了从感知机到多层感知机的发展历程,以及异或问题如何暴露出早期模型的局限,引发第一次 AI 寒冬。随后介绍了词嵌入、向量运算和注意力机制等关键技术如何推动联结主义的复兴,使大语言模型能够在高维“意义空间”中进行概率预测与生成。最后,结合对齐与强化学习,文章揭示了 ChatGPT 等现代 AI 在语言理解与生成上的核心原理。
序言:当知识不再是秘密,深度便成了唯一的护城河
作为一名在 AI 浪潮中不断迭代的开发者,我时常感到一种深刻的悖论:一方面,大语言模型让获取知识的成本几乎降为零;另一方面,真正的“理解”却变得前所未有的稀缺。
这种稀缺感源于我们长期受到的教育惯性。在当下的技术转折点,我想结合理查德·费曼(Richard Feynman)的学习哲学,谈谈为什么我们必须打破“键值对”式的思维,以及为什么 AI 这条巨大的鲶鱼,终将吃掉每一个缺乏逻辑厚度的平庸者。