标题 摘要 内容
    详情

    冯 · 诺伊曼的《计算机和人脑》是人类历史上第一部将计算机和人脑相提并论的著作。这位科学巨人希望比较计算机和人脑的计算机制,为未来建立统一的计算理论打下基础。事实上,建立计算机和人脑的统一计算理论是冯 · 诺伊曼晚年研究的主要课题。他所关注的统一计算理论应该也是人工智能领域的核心问题。站在人工智能的角度,人脑是智能系统的代表,应该从人脑的计算机制得到启发,开发出未来的智能计算理论和方法。

    本文首先通过字节跳动人工智能实验室的一些研究成果介绍最前沿的人工智能技术,总结这一两年来人工智能领域的研究发展动态。之后分享我们对人工智能领域长期发展的看法。主张人工智能的未来需要新的计算范式和新的计算理论。具体地,脑启发计算(brain-inspired computing)应是重要的探索方向;从信息、数据、模型角度的学习理论研究至关重要。

    人工智能的最新动态

    这一两年来人工智能特别是深度学习的研究又有了令人瞩目的进展。主要体现在几个方面。Transformer 模型及其变种被广泛应用到各个领域,包括语言、语音、图像。人工智能各个子领域的差异更多地体现在数据和应用问题上,使用的模型和算法趋于相同。基于大数据的模型预训练或自监督学习被广泛使用,成为各个领域学习和推理的基础。深度学习实现的是类推推理,如何实现逻辑推理也成为研究的重要课题。人工智能技术被广泛应用到各个领域,在实际应用中的可信赖 AI 问题也成为关注的焦点,包括深度学习的可解释性,公平性等。深度学习技术也被推广应用到其他领域,典型的是科学智能(AI for Science),即用深度学习技术解决物理、化学、生物、医药学问题的新方向。总结趋势如下。

    Transformer 模型一统天下

    视觉、听觉、语言处理的区别更多在于数据

    预训练、自监督学习越加重要

    从类推推理到逻辑推理

    可信赖的 AI 广受关注

    扩展到科学智能等新领域

    字节跳动人工智能实验室在进行自然语言处理、语音处理、计算机视觉、科学智能、机器人,机器学习公平性等各个领域的技术研究和开发。这里介绍几个今年发表的工作,以展示人工智能最近的发展动向。具体概述非自回归模型 DA-Transformer,端到端语音到文本翻译模型 ConST,多颗粒度的视觉语言模型 X-VLM,图片和文本统一生成模型 DaVinci,语言理解模型 Neural Symbolic Processor。

    更快的 Transformer 模型


    图 1    DA-Transformer 的架构

    Transformer 最初作为机器翻译模型被提出,后来被广泛应用于人工智能各个领域。Transformer 的一个大问题是解码基于自回归,计算需要一环扣一环地进行,速度比较慢。为解决这个问题,非自回归模型成为最近研究的一个热点。目前为止提出的非自回归模型在机器翻译的精度上没有能够与原始的 Transformer 匹敌。我们提出的 DA-Transformer 在机器翻译上首次达到了 Transformer 同样的精度,而处理的速度提高了 7~14 倍[1]。DA-Transformer 不仅可以用于机器翻译,而且可以用于任意的序列到序列任务。

    DA-Transformer (Directed Acyclic Graph Transformer)的核心想法是在解码层的最后一层构建有向无环图,如图 1 所示。有向无环图的结点表示生成翻译(目标语言句子)的状态,边表示状态之间的转移。边上有状态转移概率,结点上有表示向量,生成目标语言单词。解码器的输入是目标语言单词的位置的索引。有向无环图的结点对应着解码器的输入,有向边只能是从前面的位置指向后面的位置。有向无环图的从起始位置到终止位置的一条路径,对应着一个翻译状态的序列,在一条路径上可以产生目标语言句子(单词的序列)。其他部分的结构与 Transformer 相同。

    DA-Transformer 的解码是基于并行处理的。在解码器输入的各个位置上进行并行计算,得到解码器最后一层的有向无环图的结点上的表示向量。在此基础上计算各个边上的转移概率,从每个位置出发到达其之后位置的转移概率是归一的。这个过程的计算速度非常快。DA-Transformer 的训练也是基于翻译数据进行极大似然估计。这时一个翻译(目标语言句子)可以由有向无环图的多条路径产生,翻译的生成概率要对所有的路径求和。使用动态规划可以高效地完成一个翻译概率(似然函数)的计算。DA-Transformer 的推理可以使用多个算法。最简单的贪心算法从起始位置开始从左到右动态递归地计算到每个位置概率最大的翻译,直到生成句子终止符为止。

    语言和语音的融合ConST

    传统的语音到文本的翻译是通过语音识别和文本机器翻译的串联实现。这个方法的缺点是推理过程中的错误会累加。ConST 可以直接将英语的语音翻译成中文的文本,而且在语音到文本的翻译中,达到了 SOTA(state of the art)的效果[2]。

    ConST 的架构由 Transformer 的编码器和解码器组成(见图 2)。编码器既可以接受语音输入又可以接受文本输入。输入是语音时有特殊的前处理模块,使用 wave2vec2 和 CNN。输入是文本时处理跟一般的 Transformer 相同。用同一个系统实现语音到文本的语音识别,文本到文本的机器翻译,语音到文本的语音翻译。训练时进行语音识别、文本翻译、语音翻译的多任务学习。ConST 的最大特点是,使用对比学习将语义相同的语音输入的表示和文本输入的表示拉近。可以理解为对表示学习进行了正则化。图 2 的下图左边直观说明没有使用对比学习的表示,右边直观说明使用了对比学习之后的表示。


    图 2    ConST 的架构与语义空间

    视觉语言预训练模型X-VLM

    X-VLM 是以 Transformer 为基础,以文本 - 图片对数据作为输入进行预训练得到的视觉语言模型,可以用多种跨模态的下游任务(见图 3)[3]。具有多模态处理能力的视觉语言模型是最近研究的热点。我们这里假设文本和图片对的内容是强关联的,文本描述图片内容,但描述是多颗粒度的。文本可能描述图片整体、区域或物体,如图 3 所示。这种基础模型对 visual question answering 和 visual grounding 等任务等更加适用,也可以用于其他任务。X-VLM 是目前视觉语言各种任务的 SOTA。


    图 3    X-VLM 的架构和英语解题例

    之前的方法都是在训练之前或训练之中使用物体检测,而 X-VLM 完全不使用。从已有数据中导出不同颗粒度的文本 - 图片对数据,包括物体的名称和图像中框出的物体的对应数据。模型由文本编码器、图像编码器、交叉编码器组成。文本编码器和图像编码器是 Transformer 的编码器,交叉编码器有从文本到图像的注意力计算,文本表示作为 query。训练有四个目标,包括边框预测、掩码语言模型、匹配、对比学习。边框预测是掩盖物体的边框,从文本 - 图片对数据中还原边框,掩码语言模型掩盖一些 token 再从文本 - 图片对数据中还原,匹配判断文本 - 图片数据的匹配程度,对比学习进一步在 batch 数据中拉进语义相近的文本和图片的表示。X-VLM 已经用于多个实际应用,比如图 3 下的小学英语解题。输入带图的英语填空题,系统可以自动完成填空,这个任务之前是非常困难的。

    最近的 X^2-VLM 将 X-VLM 扩展,也可以处理视频和多语言。实验结果显示在 base 和 large 的规模上 X^2-VLM 是语言视觉任务的最新 SOTA[4]。

    DaVinci

    Davinci 是更偏文本和图片生成的多样化视觉语言处理模型[5]。文本 - 图片对数据作为输入,假设文本 - 图片是强关联的,文本描述图片内容。DaVinci 一个模型,完成从文本到图片生成,从图片到文本生成,甚至其他的理解和生成等许多任务,在这些任务上达到或接近 SOTA 结果。


    图 4  DaVinci 的架构和图片生成例

    DaVinci 的模型是 Transformer,如图 4 上图所示,预训练采用 prefix language modeling 的方法。预训练时,输入是文本 - 图片对,将其中的部分文本或部分图片掩盖,然后让数据通过 Transformer 的编码器和解码器,将被掩盖的内容还原。事先对图片进行 image tokenizing 处理,每个图片的 token 由一个离散的编码表示,进行了图像的离散化。还原实际是生成被掩盖部分的图片 token,这时没有被掩盖的上下文(可能是文本或图片)帮助生成。没有被掩盖的部分就是 prefix。DaVinci 的模型虽然简单,但可以做高质量的文本和图片生成。比如,图 4 中的下图是给定文本 DaVinci 自动生成的图片的例子。DaVinci 论证了使用同一个模型是能够同时学习“写”(基于图片的文本生成)和“画”(基于文本的图像生成),并且这两种能力能够互相促进。

    深度学习加逻辑推理 Neural Symbolic Processor


    图 5.  NSP 的架构,由系统 1 和系统 2 组成

    这里考虑自然语言理解的问题,具体的文本蕴含任务。比如 "Sam 有 10 美元,他花了 6 美元" 这句话和 "Sam 有 4 美元" 这句话存在蕴含关系。传统的深度学习方法用预训练语言模型 BERT 判断,可以达到一定的准确率,但是有很多蕴含关系的判断需要逻辑推理,包括数字推理。纯深度学习的方法并不能保证做得很好。推测人分别使用系统 1 和系统 2 进行类推推理和逻辑推理,然后进行综合判断。

    NSP(neural symbolic processing)是模仿人的自然语言理解系统,也包含系统 1 和系统 2(见图 5)[6]。核心想法是将输入的文本,通过两路处理分别进行类推推理和逻辑推理。先将输入通过编码器转换成基于向量的内部表示。之后,在系统 1 里基于内部表示进行预测,与基于 BERT 的传统深度学习方法相似。在系统 2 里将内部表示进行解码,产生基于符号的内部表示,称之为程序,接着执行程序;可以认为对输入文本进行了翻译,转换成程序。最后,将两路的处理结果进行集成,产生最终的结果,集成使用 MoE 模型。编码器和解码器都基于预训练语言模型 BART。比如,针对上面的例子,系统 2 产生并执行程序,也就是将第 1 个数字减去第 2 个数字等于第 3 个数字(M1-M2=N1)。这样的机制可以保证无论数字具体是多少,都可以进行同样的推理。系统 1 同时进行基于深度模型(编码器)的预测。两者的判断又通过 MoE 得到最终集成结果。NSP 在需要逻辑推理的语言理解任务上比传统的方法在准确率上有大幅度的提升。

    人工智能需要怎样的计算范式

    深度学习虽然取得了很大的进展,但相比人脑的学习和推理能力还相差甚远,主要体现以下几个方面。深度学习善于类推推理,但需要逻辑推理时往往无能为力。深度学习依然需要依赖于大模型、大数据和大算力,数据效率和能源效率要比人低很多。更重要的是,学习和推理往往只能针对具体的任务进行,而不像人脑那样拥有通用的学习和推理能力。

    展望未来,在很长一段时间里机器学习,特别是深度学习仍将是人工智能的主体技术。另一方面,人工智能需要更大的突破,有必要研究和开发下一代的智能计算技术。我们认为,脑启发计算应该是未来发展的主要方向。最近 Bengio、LeCun 等也提出了类似的主张[7]。这里说的脑启发计算并不是简单地模仿人脑,而是根据计算机的实际特点参考人脑的机制,构建机器的学习和推理智能系统,主体可能还是深度学习,但与深度学习又有本质的不同,属于新的范式。脑科学家马尔将计算分为三个层面,分别是功能、算法和实现。脑启发计算更多的应该是从功能层面借鉴人脑的机制。希望能解决样本效率、能源效率、逻辑推理等方面的问题,为领域带来更大的突破。下面通过几个例子说明我们所说的脑启发计算。


    图 6. 大脑皮层中的主要脑区

    人脑的信息处理分多个脑区。各个脑区相对独立,又相互关联(见图 6)。比如,对自己祖母的记忆,包括视觉、听觉、语言等方面的信息,分别存储在不同的脑区。脑启发计算可以参考人脑的分区处理机制。深度学习中的 MoE(mixture of experts)技术有一定的相关性。