本文为深度编译,仅供交流学习,不代表智子说观点

  俄罗斯专家惊人预言:十年内人类得管AI叫老师!机器揭宇宙潜规则

  计算机能否企及甚至超越人类智能?如果答案是肯定的,通向那里的路径又在何方?

  当总部位于华盛顿特区的美国人工智能促进协会(AAAI)今年早些时候向其会员抛出这一问题——当下的技术宠儿“神经网络”能否独自通过终点线时,绝大多数人的回答是:不能。他们认为,要让这些系统达到预期高度,必须重新引入一种更为古老的技术流派:符号人工智能(Symbolic AI)。

  这种被称为“老派人工智能”(GOFAI)的技术,基于对形式化规则和概念间逻辑关系的编码。无论是数学体系、编程语言中的条件语句,还是用以展示猫、哺乳动物与动物之间概念关联的维恩图,都属于其范畴。几十年前,符号系统曾是AI研究的先行者。但在2010年代初,随着更灵活的神经网络崛起,它被远远甩在了身后。后者擅长从海量数据中学习,并构成了如今大型语言模型(LLMs)及ChatGPT等聊天机器人的核心。

  然而,风向正在转变。计算机科学界正大力推动新旧技术的深度融合,“神经符号人工智能”(Neurosymbolic AI)已成为当下最炙手可热的学术词汇。马里兰大学帕克分校的计算机科学家布兰登·科勒洛(Brandon Korman)的研究显示,自2021年起,相关学术热潮持续攀升,且未见减弱迹象。

  众多研究者将此视为打破神经网络在AI领域“不健康垄断”的突破口。若能完美融合这两种策略,或许将催生通用人工智能(AGI)——一种具备与人类相当的推理能力,并能将知识在不同情境间自由迁移的智能形式。

  科勒洛指出,这种技术对军事或医疗决策等高风险应用尤为关键。因为符号AI具有透明性,且人类可理解,能有效避免纯神经网络系统常陷入的难以信任的“黑箱”困境。

  尽管已有如谷歌DeepMind发布的AlphaGeometry系统(能可靠解决数学奥林匹克竞赛题)这样的成熟案例,但要将神经网络与符号AI融合成一个通用的系统,仍是一项艰巨挑战。马里兰大学计算机科学家威廉·雷格利(William Regli)形象地比喻道:“这就像是在设计某种双头怪兽般的架构。”

  俄罗斯专家惊人预言:十年内人类得管AI叫老师!机器揭宇宙潜规则《苦涩的教训》与反思

  2019年,计算机科学家理查德·萨顿(Richard Sutton)在其博客发表了著名的《苦涩的教训》(The Bitter Lesson)一文。他指出,自1950年代以来,人们屡屡认为打造智能计算机的最佳途径是向其灌输人类对世界规则的认知。但残酷的现实是:符号化方法屡屡败给那些利用海量原始数据和算力优势进行“搜索与学习”的系统。

  神经网络的支持者们广泛引用这一观点,坚信不断扩大系统规模才是正途。然而,许多研究者认为该论文夸大了论点,低估了符号系统的重要作用。当今最强的国际象棋程序Stockfish,实际上就结合了神经网络与可执行棋步的符号树。

  神经网络与符号算法各有千秋:

  • 神经网络由多层节点构成,运行迅捷且富有创造力,但难免会“产生幻觉”(胡编乱造),且在面对超出训练数据范围的问题时表现不佳。
  • 符号系统运作机制清晰,擅长逻辑推理和将通用知识应用于新情境,但难以处理人类语言这类“混乱”且难以穷尽规则的概念。

      当缺乏符号知识的神经网络独自运作时,常会犯下常识性错误:图像生成器画出六根手指的人,因为它只有像素的统计规律,而没有“手通常有五指”的概念;视频生成器无法呈现球体自然的弹跳,因为它不懂重力定律。

      许多学者主张,为神经网络注入符号化元素,可能是赋予AI真正逻辑推理能力的唯一途径。尽管IBM等科技巨头已开始押注神经符号学,但质疑声依然存在。图灵奖得主、Meta首席人工智能科学家杨立昆(Yann LeCun)就坚持认为,《苦涩的教训》至今适用,人工添加符号化元素是“错误之举”。

    混合搭配的艺术

      “神经符号AI”并没有唯一的定义,研究者们正在尝试多种融合策略。

      策略一:用符号技术优化神经网络。 AlphaGeometry是这一策略的典范:它利用符号语言生成的数学题合成数据集来训练神经网络,使得解题过程更易验证且错误率更低。另一范例是“逻辑张量网络”,它为命题赋予介于真(1)与假(0)之间的模糊真值,为神经网络构建起辅助推理的规则框架。

      策略二:用神经网络优化符号算法。 符号知识库常因规模庞大导致检索缓慢。例如围棋的走法“树状图”规模大到难以想象。谷歌AlphaGo通过训练神经网络来预测最具潜力的落子子集,大幅缩减了搜索范围,从而击败人类棋手。

      策略三:在工作流中嵌入符号计算。 这就好比让人类在解数学题时使用计算器。“程序辅助语言”(PAL)模型会先将自然语言转化为Python代码,通过运行代码解决问题,再将结果转回自然语言。这种方法能有效防止语言模型“一本正经地胡说八道”。

      即将赴宾夕法尼亚大学任职的AI研究员毛佳媛(Jiayuan Mao),成功运用神经符号AI提升了机器人的训练效率。她的系统先用神经网络识别物体(如红色球),再用符号算法推理物体间关系。纯神经网络可能需要70万个样本才能学会的任务,加入符号技术后,仅需1%的样本量就能达到92%的准确率。

    翻译中的迷失与未来的指挥家

      符号AI面临的最大挑战,是如何将人类那些难以捉摸的常识编码为逻辑规则。

      道格·莱纳特(Doug Lenat)发起的Cyc项目试图通过逻辑运算符建立常识库,如“见到所爱之人会令人微笑”。然而,现实世界充满了例外(并非所有人见到孩子都会微笑)。莱纳特与盖瑞·马库斯(Gary Marcus)曾测试让GPT-3编写CycL语句,结果虽然表面语法正确,但逻辑却是一团糟,甚至将“触碰蓝色物体”这一行为错误地归类为“日期”。

      科勒洛直言,简单拼凑符号引擎与神经网络毫无意义。他强调,当下亟需研究AI的“元认知”——即AI如何监控并引导自身思维。我们需要一个AI“指挥家”,能够统筹两种思维范式,而非让它们机械轮转。

      对于毛佳媛而言,终极目标更具野心:利用神经网络的学习能力,去发现人类尚未意识到的规则。

      “我们期待最终能构建出自主发明符号表征与算法的系统,使其真正超越人类认知边界,”她表示。这就如同计算机自行发现了像圆周率或质量这样的物理概念。届时,“我们需要研究的将是计算机如何教导人类,而非人类如何教导机器。”

      在人工智能的演进史上,我们似乎正在经历一个螺旋上升的回归。从最初试图用一行行严丝合缝的代码去穷尽世界的规则,到后来放手让神经网络在数据的海洋中依靠直觉“暴力破解”,现在,科学家们试图在混沌的直觉与严谨的逻辑之间架起桥梁。

      这不仅仅是技术路线的修正,更像是在模仿人类大脑本身的运行机制——既有“快思考”的直觉判断,又有“慢思考”的逻辑推演。当那个预想中的AI“指挥家”真正挥起指挥棒时,它演奏出的或许不再是模仿人类的乐章,而是我们从未听过的、关于宇宙本质的全新旋律。那时候,机器不再仅仅是工具,它将成为一位能够指出人类盲区的冷峻导师。

      俄罗斯专家惊人预言:十年内人类得管AI叫老师!机器揭宇宙潜规则

      如果你对AI的发展路线是支持纯神经网络的“暴力美学”,还是看好逻辑与直觉结合的“混血路线”,欢迎在评论区分享你的看法。

      作者信息 尼古拉·琼斯(Nicola Jones)