大模型时代的“Linux”生态,开启人工智能新十年

7928baa76486c96b6ccb824e26dd1673.gif

演讲 | 林咏华  智源人工智能研究院副院长    

整理 | 何苗

出品 | CSDN(ID:CSDNnews)

2018 年以来,超大规模预训练模型的出现推动了 AI 科研范式从面向特定应用场景、训练专有模型,转变为大模型+微调+模型服务的AI工业化开发模式。直至对话大模型 ChatGPT 引发全球广泛关注,人们终于欢呼 AI 2.0 时代来了。当我们立足由大模型推动的AIGC元年,AI 正在迎来新的一轮全球应用和研发热。

随着两波AI崛起浪潮接连在寒冬中袭来,人们终于看到了大模型+AIGC 将人工智能从当前低谷带到下一个拐点的星火。在过去十年的尾声,以深度学习为基础的人工智能为何在产业落地方面变得缓慢?人工智能的下一个十年将是何图景?或许要从 AI 的开发范式变迁说起。

f851bfc9eeabe4a7de92e221d438990e.png

AI开发范式三重变

过去多年,每年虽有几万篇 AI 领域的 Paper 产出,但其产业落地进展依然缓慢,究其原因主要有以下几点:

第一,AI研发的人力成本太高,且大量依赖算力研究者。人工智能是知识密集型产业,聘用算法研究人员和算法工程师的成本通常在 5 万~ 8 万元/月,在AI产业中的企业,人力资源的支出占比非常高;

第二,训练数据的成本太高。在传统AI项目里,60 %-80 %的时间和成本花在了数据上。通常,在算法研发项目中,购买数据所需的成本大约占整个项目的 60 %,而 80  %的时间被数据准备相关的工作占据,如采集,清洗和标注等。因为在不同的场景下,数据标注的标准并不一致,因此即使是同样的数据标注任务,也需要针对新的场景标注新的数据集;

第三,AI训练需要的算力资源成本颇高。如果从零开始训练一个模型,计算资源的消耗将会非常高,特别是大于 100 亿参数规模的模型,训练所需算力的成本会超过 100 万人民币。

而AI开发范式很大程度上决定了产业落地的成本。那么过去十年以及未来十年的开发范式给我们带来怎样的改变?

f9dcfa3d80b8ee2a1315aa54a6e3b162.png

第一阶段开发范式:从头开始训练模型和准备数据

过去,每个应用企业面对不同 AI 应用都需要从头开始训练领域模型,这就要求每个企业都有一批全栈算法工程师,海量训练百万级标注数据,使用高昂的算力从 0 到 1 训练一个模型。目前来看此路不通,因此十年前,预训练模型加微调开始在计算机视觉领域迅速发展。在 2014 年的 NIPS、CVPR 等学术顶尖会议上发布了此方向的多篇开创性文章。

第二个阶段开发范式:预训练模型+微调训练的迁移学习开发范式

在迁移学习的开发范式下,由有实力的 AI 团队通过海量的数据(如百万、千万级数据)进行基础模型训练。AI 应用团队再通过收集少量数据(如千~万数量级的图片或文本),对预训练的基础模型进行微调训练。相比起第一种范式,对大量 AI 应用团队而言,可以大大减少需要收集的训练数据、缩短训练的时间和所需的计算资源。因此,在过去 10 年,迁移学习广泛被应用在计算机视觉的 AI 开发中,后来也演进到语言模型的开发中。

但在这种范式下,使用的预训练模型规模不大,因此泛化性低。针对不同的小场景,往往需要微调训练不同的模型来适配,企业在同一个场景中需要维护多个小模型,无形增大了应用开发、维护和迭代的复杂度。此外,对众多应用企业而言,依然需要有 AI 算法团队来实现微调训练和模型迭代,对 AI 应用的落地形成不小的门槛。

第三种 AI 开发范式:基础大模型+指令提示(prompt)

近年大模型的迅速发展带来了第三种 AI 开发范式。由实力强劲的 AI 头部企业将巨量数据(数以千亿级、万亿级的文字 token,或者上亿级的图片、文章或者图文对),通过数百到上千张 GPU 加速卡来训练百亿以上参数规模的大模型。该大模型诞生之后,不需针对各种应用场景分别进行微调训练,只需应用企业通过带提示的指令进行 API 调用即可。

bd05e8169c64b28eb51842ea32534765.png

大模型驱动 AI 新十年

随着人工智能开发范式进入预训练基础大模型+应用提示,AI 应用也从单种模态迈向多种模态的 AI 应用。当模型参数量很大,所吸纳的数据量够高,就具备了足够的泛化性和融合的能力,而模型能力也从过去十年的感知和理解类应用能力,迈向了众多生成类的新应用。人们再也无法忽视大模型的两个重要发展趋势:模型越来越大,从最初一亿参数级的模型到上万亿参数的模型;从单一的语言模态走向了跨模态。

当预训练模型由小变大,人工智能从理解到生成,业界迎来了怎样的挑战?

超大参数量

当 AI 面临产业落地问题,就需要考虑,多大参数量的基础模型才能够满足应用需求。Google 去年有文章分析语言基础大模型,在 Few-shot 情况下,训练计算量基本都在 1022  FLOPs 以上,才能出现对不同任务的涌现能力,这至少对应着百亿参数以上的模型规模。不同难度的任务,其涌现能力出现的模型规模拐点不尽相同。对于其它视觉、跨模态基础大模型,还有待总结。

超大的训练数据量

到底要多大的训练数据才足够?Meta AI 最新公布了模型 LLaMA,它是以 1 万亿 token 的数据量训练 130 亿参数的模型,超过了使用 4000 亿 token 训练的 1750 亿参数的 GPT-3。过往实验也呈现过类似的情况,通过使用更多数据、把大模型的参数量控制在一定范围,将更加适合产业的广泛落地。

大模型的评测

当模型越来越巨大时,下游行业企业已经不再自己训练模型,而是选择基础大模型,大模型的评测变得尤其重要。那么产业该如何对一个训练好的大模型进行评测?以当前的语言大模型为例,可以从三个层级的能力——理解能力、生成能力、认知能力入手。现有的语言模型评测体系,包括之前的 GLUE 和最新的 HELM 等,都以评测理解能力居多;对于模型的生成能力,目前大量依赖人的主观评测;对于认知能力,由于边界难以确定,更加缺乏统一的评测方法。因此当模型的模态从单一走向多样,对评测提出了新的挑战。

持续学习和定点纠错

当模型庞大,如何让其拥有持续学习以及定点纠错的能力?如果你在训练数据中存在了一个错误的知识点,该怎样从庞大的已经训练好的模型里把错误修正?

还有如何提升训练效率和推理效率等问题,以上都是未来十年产业落地中很重要的挑战。

如何迈向 AI 新十年?或由大模型来驱动。

作为人工智能领域的非盈利性质的新型研发机构,智源研究院是中国最早进行大模型研究的科研机构,“大模型”一词,也是自 2021 年 3 月智源发布悟道 1.0—— 中国首个人工智能大模型之后,渐渐成为约定俗成的术语。

79d619485f52ddf6aa8dea9691ba6d72.png

文生图与 ChatGPT 两个标志性的AI应用,让我们看到了大模型推动的 AIGC 发展元年。尽管当前更多人将关注点聚焦于 ChatGPT,但难度更大的 GPT3.5 才是整个大模型的底座。

可以说没有语言大模型,就没有爆款 ChatGPT。它的成功不在于“Chat”,更重要的是下层强有力的基座——预训练的语言大模型 GPT3.5。文生图应用的重要基座是文图的表征模型,又叫做图文预训练大模型,再往下层又需要很强的语言模型和视觉模型作为双塔支撑。而这一切,仅构成了大模型基座的第一行。强大的数据和数据处理能力、大模型的评测方法也都是支撑大模型更重要部分。再加上算力、整套 AI 系统相关技术、智算平台算力的调度、底层算子的优化,以及各种 AI 芯片技术的加持,这些才真正支撑起了 AIGC 的成功。

3555f567aa3d625d240420ccf16dd111.png

人工智能必须开源开放

火爆的文生图应用、ChatGPT 等生成式模型只是大模型领域的冰山一角。在冰山之下,还有层层的技术栈,需要各种模态的预训练大模型、海量数据集以及优秀的数据集工具、大模型评测以及一系列的 AI 系统优化工具和技术以作支撑。没有从底至上的技术栈,就垒不起水面上的冰山一角。

9d4135c4f7e40c8cd2529de73191ac40.png

在过去几年智源一直全力积累冰山下的大模型技术栈。如今,它已不再沉迷于做某个一枝独秀的大模型,而是选择将多年积累的优秀大模型技术栈整体开源,推动产业在大模型创新上的快速发展。

开源开放本就是 2017 年国务院《国家新一代人工智能发展规划》提出的四项基本原则之一。智源认同不该由任何一家企业来封闭式主导对人类而言如此重要的方向,而是应该共建开源开放技术体系的产学研单位与生态。

现已经进入“人人大练模型”的无序发展阶段,为了实现AI的有序创新,在数据、测试、开源算法上,智源联合多所高校与企业共同发布了 FlagOpen(飞智)大模型技术开源体系。该体系是一站式、高质量的大模型开源开放软件体系,可助推全球开发者开展各种大模型的开发和研究工作,形态可类比为大模型领域的 Linux,主要包括 FlagAI、FlagPerf、FlagEval、FlagData、FlagBoot 和 FlagStudio 六个部分。

基于 FlagOpen,国内外开发者可快速开启各种大模型的尝试、开发和研究工作,企业可大大降低大模型的研发门槛。同时,FlagOpen 大模型基础软件开源体系正逐步实现对多种深度学习框架、多种AI芯片的完整支持,支撑 AI 大模型软硬件生态的百花齐放。

e65bef41f22534ff679d2a76ee7da827.png

FlagAI

FlagAI 是 FlagOpen 的核心部分,作为一站式高效、灵活的大模型算法和工具,它集合了全球主流的大模型算法,也包括智源的大模型悟道 2.0 到 3.0 的核心算法,同时配备了完整的多领域下游任务。对开发者而言,选择该算法仓库后就知道如何配下游任务,不需要在外面寻找下游任务的实现算法,使其效率得到大幅提升。此外,该项目还集成了各种优化工具,如广泛流行的 DeepSpeed、Magtron 和最新的国内高校并行优化技术 BMTrain 等,算法开发者只需做配置选择,就可以游刃有余地切换在不同的加速技术上。

FlagEval

FlagEval 打造一个了完整的评测体系,更重要的是试图探索未来如何借助 AI 来辅助进行生成型的模型评测。它的诞生主要依据以下几大痛点:

  • 大模型时代,更多下游企业已经不再训练自己的模型,而是考虑怎么选择一个被训练出来的模型。下游用户急需一套完整的评测体系帮助自己选择,但当前的评测体系比较割裂,在语言、视觉、语音多模态都各自不同的评测方法、评测体系。

  • 模型本身的训练效率、推理效率、微调效率难以评测,这些都与成本息息相关。考虑到大模型本身是个“黑箱子”,对大模型的评测仍需要满足多种模态的领域以及多种维度。

  • 对AIGC生成性的评测,对生成图、生成文的评测目前仍然过度依赖人力。与感知性、理解性的评测不一样,生成类的评测没有物理世界的准确答案,大量依靠人力来评测不但效率低下,其公平、客观性也不可考证。

针对以上痛点,智源依托自身在多模态上领先的技术积累,开放了多模态领域——CLIP 系列模型评测工具。这是业内首个完整支持多种语言、多种评测难度和任务的文-图跨模态评测工具。

FlagPerf

FlagPerf 是面向AI的加速、异构系统打造的整体 AI 系统评测工具。它相较于许多商业公司自行研发的评测标准,位置更加中立,可针对不同的 AI 芯片进行评测,支持多种框架,如 Pytorch、Paddle 等。

建立相应的标准体系以及背后评测的手段、体系是产业走向成熟的一个标志。一直以来,新架构的 AI 芯片落地时,最难的问题是被用户评测。为了支撑 AI 芯片评测,需要考虑多种厂商 AI 芯片架构差异、国内外多种深度学习框架、以及数十上百种应用模型。这是一个十分复杂的多重组合问题,因此导致整个适配、评测工作量巨大。FlagPerf 联合多家芯片厂商、系统厂商共同打造了向下支持多种芯片,向上支持多种深度学习框架的AI芯片评测开源系统,力图用中立、开源共建来支撑业界统一、易用的评测工具,并通过引入自动化方法来提高评测的效率,加快 AI 芯片的产业落地。

FlagDATA

它是帮助用户对海量的训练数据集进行数据高质量处理的工具。智源在过去三年积累的多种模态数据达几百 TB。在收集、清理、标注数据,把它变成高质量数据集的过程中,也沉淀了许多数据处理经验和工具软件,此次将其开源,以便所有大模型开发团队和开发者能便捷地进行高质量的数据处理,加快大模型的研发。

以上是 FlagOpen 飞智大模型技术开源体系的整体情况。当越来越多的产品不同程度地建立在开源基础上,成为技术发展的一大趋势,这种集约化的方式,也将汇聚人类智慧,让产业实现更快速的发展。

开源在全球多年的发展已经证明了它的优势,它在某种程度降低了风险。成功的开源项目往往由多家企业共同维护,同时有很多开发者在使用过程中汇报、反馈BUG,因此开源软件往往会比闭源软件在技术风险上、技术问题上得到更快解 决、漏洞更快被捕杀。这也是云计算、操作系统、大数据,以及如今的 AI 都倾向于开源的原因。

adb201ebc205b533b584228951f77a59.png

漫漫摘星路

如今大模型声量宏大,但是实际来看其技术还需不断深耕才能在未来十年成功落地。智源在此时开源 FlagOpen 飞智体系,更像是撒下一粒种子,让更多的企业和团队联手,帮助国内大模型初创团队前进,带动 AI 芯片产业紧抓大模型十年发展的黄金机遇,推动全球开放创新。

同时,智源也立下了几大目标:在未来三年打造最大高质量的多种模态评测数据集;构建全球覆盖领域、维度最为完整的大模型评测平台,做到人人贡献、人人测评;打造全球领先的大模型技术开源体系。

大模型技术落地并非一蹴而就,国内的发展更是需要构建扎实的技术栈。在这股浪潮中所有科研、技术团队,需要更加脚踏实地,做最扎实的技术,勇敢寻求创新,才能摘到未来十年最亮的那颗星星。


演讲嘉宾简介

743febbff6c1fb13bc40dc0bf46257b9.png

林咏华现任北京智源人工智能研究院副院长兼总工程师, 主管大模型研究中心、人工智能系统及基础软件研究、产业生态合作等重要方向。IEEE 女工程师亚太区领导组成员,IEEE 女工程师协会北京分会的创始人。曾任 IBM 中国研究院院长,同时也是IBM 全球杰出工程师,在 IBM 内部引领全球人工智能系统的创新。从事近 20 年的系统架构、云计算、AI 系统, 计算机视觉等领域的研究。本人有超过 50 个全球专利,并多次获得 ACM/IEEE 最佳论文奖。获评 2019 年福布斯中国50位科技领导女性。

推荐阅读:

>>微软 154 页研究论文刷屏,对 GPT-4 最全测试曝光,称其初次叩开 AGI 的大门!

>>ChatGPT 已成为下一代的新操作系统!

>>谜题科技发布Enigma Alpha平台,开启AI生成决策动作篇章!

b5ab2d77a50959a9ccba1cbd85d35499.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/50260.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

巴比特 | 元宇宙每日必读:关闭寄售市场,承诺的“元宇宙”不见踪迹,数字藏品平台iBox被指涉嫌诈骗,多地警方已立案...

摘要:据澎湃新闻报道,4月12日,多名iBox用户向澎湃质量观投诉平台反映,他们在海南链盒科技旗下iBox平台购买数字藏品时被诈骗。针对多名用户报案称被链盒科技诈骗,4月13日,海南省澄迈县公安局正式受理该案。…

外国小哥用 ChatGPT 完成 80% 工作,同时打 4 份工,笑疯。。

点击上方“Java基基”,选择“设为星标” 做积极的人,而不是积极废人! 每天 14:00 更新文章,每天掉亿点点头发... 源码精品专栏 原创 | Java 2021 超神之路,很肝~中文详细注释的开源项目RPC 框架 Dubbo 源码解析网络应…

【设计欣赏】新颖包装设计欣赏

本组是16组设计新颖的包装设计,各具特色,请欣赏。

怎样设计食品包装袋,才能够吸引用户?-东莞吉祥包装

一般咱们去购买食物的时候,首要映入咱们眼帘的是食物的外包装袋子,因而一款食物能不能够卖的好,有很大的一部分原因取决于食物包装袋的好坏,有些产品即便自身的颜色可能不是那么的招引人,可是经过各种办法加以渲染&…

vi设计中产品与包装类设计

vi设计中产品与包装类设计 编辑:AGO(安可)品牌顾问 企业应该注重塑造产品外观式样的独特个性,从而以鲜明的设计吸引消费者。在将北京vi设计的基本要素应用于产品外观设计中时,还应注意vi中的各种要素应与产品特点相结合,与企业整体…

【产品】平面设计之产品包装排版设计

1、产品包装设计分类 1)设计升级 原来包装设计太丑,需要优化视觉形象; 企业战略性调整,原来的设计不符合全新定位导致的重新设计。 2)原创包装设计 根据产品属性、定位,设想突破性的设计创意&#xff…

插画是什么?插画和原画有什么区别 插画知识科普

插画,又称插图,是用手绘、鼠标和计算机绘制的插图。 现代插画有多种形式,可以按媒介或功能分类。按媒体分类,基本分为两部分,即平面媒体和影视媒体。 印刷媒体包括海报广告插画、报纸插画、杂志和书籍插画、产品包装插…

倍投技巧 - 凯利公式教你如何用正确的方法投资

凯利公式志在解决的问题 假设赌局1:你赢的概率是60%,输的概率是40%。赢时的净收益率是100%,输时的亏损率也是100%。也即,如果赢,那么你每赌1元可以赢得1元,如果输,则每赌1元将会输掉1元。赌局可以进行无限…

记忆法万能公式

1、[中文转换与联接] (中文一图像联接) (1) 能出图的具象词直接出图,具象词就是生活中我们能够看得见摸得着的物体 (2) 不能出图的抽象词转化出图,抽象词就是我们看不见摸不着的名词 2、[数字的转换与联接] (1) “谐音法”,举例: 13-医生&…

通达信公式编写初中高级全套教程(附:通达信全部函数表)

通达信公式编写初中高级全套教程(附:通达信全部函数表) 公式系统(初级) 公式系统(中级) 公式系统(高级) 附录:全部指标函数表 中高级在后面 1.公式类型说明 调出公式管理器: 功能专家系统公式管理器 公式类型分为四大类:技术指标公式、条件选股公式、交易系统公式、五彩…

怎样利用通达信公式选股?

一、首先通过公式管理器建好公式,打开公式管理器,如图: 安装通达信软件 通达信软件下载和了解通达信可以点击这个链接: http://www.6073168.com/shoujigupiaoruanjian/55.html 里面集成了通达信的官网地址,下载链接…

万能Markdown数学公式

文章目录 万能Markdown数学公式1、首先设置(windows):2、markdown格式3、上下标4、分式与根号5、累加与累乘6、括号7、省略号8、矢量9、积分10、极限运算11、常用希腊字母12、方程组13、矩阵14、常用符号 万能Markdown数学公式 1、首先设置&…

通达信指标公式编写常用函数(三)——HHVBARS、LLVBARS

内容提要:本文主要介绍了HHVBARS函数、LLVBARS函数、函数的应用举例以及函数的综合运用。 HHVBARS这个函数名由HHV和BARS两部分组成,HHV是最高值,BARS是英文,翻译成中文就是K线的意思。从这个函数名就能看出来,HHVBARS…

电脑(win10)连接小爱同学音箱

一共三步操作就OK 1.左下角搜索蓝牙-->选择蓝牙和其他设置 2.打开APP小米AI-->点击个人中心-->选择蓝牙设置开启蓝牙(不要退出) 3.右键桌面右下角的声音图标 -->打开声音设置-->接着看下图 找到小爱 右键点击连接即可

【语音控制】0成本实现小爱远程开关电脑

背景:之前使用HACS/网页版实现了电脑网络唤醒,但不能关机,不支持小爱 问题:不能语音关机,不支持小爱 环境:支持WOL的主板电脑,python 3.X环境(我这里用了群晖) 解法:1.使用小爱添加第…

小爱同学调用系统接口,语音下发任务

需求很简单,就是语音对话小爱,调用系统接口,达到下发任务的目的 1.立即开发 2.开始创建技能 3.点击自定义技能 4.技能名称随便定义,面向设备,这边的需求是小爱音响 5.设置调用名称,上传图标,必填项都填满就行了 6.添加意图,3个系统意图一定要添加,不然莫名其妙的错误,添加一个…

解读:【小爱同学】智能问答系统

重磅推荐专栏: 《Transformers自然语言处理系列教程》 手把手带你深入实践Transformers,轻松构建属于自己的NLP智能应用! 1. 基于检索匹配的问答 1.1 FAQ问答框架 1.2 检索 检索召回分为以下三种方式: term检索实体检索语义检索…

ESP32接入小爱同学,实现语音控制

准备工作 安装手机app 米家app小米音箱或小爱同学app点灯科技app,app下载链接:https://diandeng.tech/dev 开发环境搭建 Arduino IDE需安装好esp32扩展Arduino IDE 1.8.7或更新版本务必使用 2.0.0 或以上release版本的 ESP32 Arduino package Arduin…

可惜我是水瓶座

这是我写的十二星座十二人的第七篇。我过去写过: 双子刘若英:《若》狮子陈奕迅:《狮子医生》天秤李安:《安》天蝎朴树:《蝎子朴树》摩羯周杰伦:《范特西》双鱼伊能静:《十二星座十二人之&#x…

机器人用上AI后,拥有了堪比人类皮肤的触觉:轻松引线穿针、夹取鸡蛋丨Science子刊...

萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI 你见过能灵活夹取鸡蛋、可取可放的机器人吗? 不仅如此,甚至还能穿针引线: 就算是往它拿着的瓶子里倒水,也不会掉: 这是来自香港城市大学、香港大学、CMU和南方科技大学的…