对于很多人来说,生成式AI在全球的大面积爆发不过短短2年时间,但它正以意想不到的速度改变着世界。为何它发展如此之快?未来又将带着怎样的轨迹前行?下面,司普科技1号解说员小司带大家一探究竟~
在有些人看来,生成式AI的爆发式增长像是一次偶然性的技术突破,但从整个大环境看,它的爆发不是横空出世,而是多种条件交叉发展的结果。
技术方面,2016年AlphaGo打败世界围棋冠军,让AI重回大众焦点。而在此之前,卷积神经网络(CNN)、循环神经网络(RNN)、生成对抗网络(GAN)等深度学习模型或AI核心算法都已经问世,只是苦于找不到合适的应用场景或存在缺陷被雪藏和边缘化。2017年,谷歌研究团队首次提出了Transformer,这种基于自注意力机制的神经网络模型拥有强大的并行计算、长序列处理和语义理解能力,尤其擅长文本生成。发现Transformer在内容生成这块的潜质,2018年,谷歌团队在其基础上提出了预训练模型Bert。Bert首次尝试通过自监督学习和微调来训练大模型的自然语言处理能力,被视为里程碑式的发现。这种模型训练方法为OpenAI等AI公司打开了思路。2018-2022年,OpenAI蓄势推出了3代GPT大语言模型。随着千亿级参数的GPT-3.5大模型涌现能力,OpenAI很快在2022年11月推出现象级产品ChatGPT,并一炮走红。2023年是AI显性化发展的元年。这一年,OpenAI趁热打铁推出了GPT-4,与此同时,Midjourney、Runway、DALLE、Stable Diffusion等多模态AIGC产品强势出圈,点燃了全民的使用热情。另一边,Meta AI发布了开源大模型LLaMA,为国内外大量垂类、端侧大模型提供了技术底座,吸引到更多AI新势力涌入赛道。国内方面,2023年前后成长起来了一大批AIGC公司,随着基础大模型赛道诞生出数百家企业,“百模大战”由此兴起。人们享受着新技术红利,也加速着市场转型。不过从整个市场的发展曲线来看,AI高速发展的背后,除了技术(尤其是大模型)方面的成熟,还有硬件上的配合。比如在2016年、2020年、2022年这三个AI发展的关键节点,英伟达分别推出了DGX-1、A100、H100三款划时代意义的硬件产品,为AI大模型训练提供了强大的算力支持。国内方面,2016年前后,国产芯片陆续布局。在2019年AI热潮爆发前夕,华为率先推出了昇腾系列AI芯片。在市场需求和政策的双重引导下,眼下越来越多的“国产芯”在市场上崭露头角,也为国产大模型的发展提供了重要的端侧算力支撑。除此之外,包括AIGC在内的人工智能技术在各行业被广泛应用,其实也有业务创新、提效降本、业绩增收、升级体验、猎奇尝新以及人口老龄化等多方面的考虑。
当这些时代因子交织在一起,合力推动了AIGC的崛起及爆发式增长。