国内大模型最早推行者:大模型也就是人脑1%、2%的规模,还差很远

在线下载 > 软件资讯 > 热门资讯 > 正文

国内大模型最早推行者:大模型也就是人脑1%、2%的规模,还差很远

任务文章 2023-06-09 17人已阅读

详情

国内大模型最早推行者:大模型也就是人脑1%、2%的规模,还差很远《AI未来指北》栏目由腾讯新闻推出,邀约全球业内专家、创业者、投资人,探讨AI领域的技术发展、商业模式、应用场景、伦理及版权争议。

文 / 腾讯科技 郭晓静

2021年8月份,李飞飞和100多位学者联名发表一份200多页的研究报告《On the Opportunities and Risk of Foundation Models》,在这篇论文中,AI专家统一了Foundation Models的说法,可以翻译为基础模型或者是基石模型,并肯定了Foundation Models对智能体基本认知能力的推动作用。同样是在2021年,在3月份悟道1.0发布现场,智源研究院院长黄铁军介绍,人工智能的发展已经从“大炼模型”逐步迈向了“炼大模型”的阶段。也就是从这个时候开始,中文里“大模型”的说法开始进入公众视野。仅仅两个月之后,悟道2.0发布,参数为1.75万亿,为GPT-3参数量(1750亿)的十倍。

时间来到了2023年,ChatGPT所展现出的“超能力”,印证了Foundation Models真的让“智能”产生了突破,人们对人工智能的关注度骤然提升。英文中的“Large Language Model”(LLM)也开始变成英文世界的热词,与中文“大模型”的说法,不谋而合、相互交融。

“大模型”也被称为人工智能中的“暴力美学”。用通俗的语言描述,我们可以把“大模型”理解为参数数量巨大、计算量巨大的深度学习模型。通过海量数据的训练,学习到更加复杂的特征和规律,从而对人类下达的指令,产生更加智能的反馈。

“大”是“智能涌现”的必要条件,但是究竟要多大才能出现“涌现”?这目前还是技术黑箱。关于模型要做多大,能做多大的讨论,一直为业内关注的焦点。作为国产大模型最早的践行者和推行者之一,黄铁军认为,大模型的“大”没有上限,高质量数据的数量以及算力水平的限制,都不能成为大模型继续扩大的限制条件,如果以人脑一千亿个神经元,总突触超过一百万亿的数量级为参照物,基于人工神经网络的大模型,还有很大空间。

迄今为止,中国已经发布了79个大模型(据《中国人工智能大模型地图研究报告》不完全统计)。黄铁军对此的观点更明确,全球仅仅需要三个大模型就够了。至于人类通往AGI(通用人工智能)之路,究竟是不是能通过深度学习这条路径实现,目前还没有定论。但是可以肯定的是,人类已经看到了AGI的曙光。也正是这抹光的乍现,人工智能界最有影响力的人物,多次预警并联名签发公开信,预警风险。他们的担忧,究竟有哪些?

相关资讯