从大模型走向小模型,谁将是ChatGPT布局to B行业的大赢家?

ChatGPT淘金热

当前,爆发了ChatGPT热潮,吸引众多科技企业陆续加入其中。这与当年美国西部加利福尼亚的淘金热何其相似。

历史总会惊人的相似,ChatGPT聊天机器人好比一座数字化时代的金矿。全世界科技淘金人蜂拥而至,从潮起到潮落,潮水退去之时,能生存下来的可能不是淘金人,而是卖铲子、卖牛仔裤等提供淘金基础工具的那批人。

 

站在ChatGPT的行业风口,除了超大模型的演进发展,还将诞生更多的小模型专注服务垂直领域,普惠千家万户,将是必然趋势之一。从大模型走向小模型,谁将是未来的大赢家?带着这个问题,我们不妨先来捋一捋ChatGPT背后的算力和经济账。

01

「似乎不止于此」

ChatGPT带动了服务器与GPU增长

事实上,在业内风生水起,ChatGPT带动了不只是互联网、IT、云计算等科技公司发展的新概念,而且可以看到当前聊天机器人也激发了服务器与GPU的市场增长,毕竟并行计算架构的GPU更适合大规模AI训练与推理。眼下国内可见的是,服务器领域的浪潮信息、中科曙光、新华三、长城等也从中受益。

似乎不止于此,一位云计算行业的专业人士分析指出,ChatGPT进而带动了Cloud Financial Management云财务管理的发展,也就是现在业内热聊的FinOps,这是“Finance”和“DevOps”的综合体,强调运维过程中的成本管理和资源优化。但FinOps要实现更智能的目的,也需要背后算力的强大支撑。

业内人士笑言,什么是人工智能?顾名思义,有多少人工就有多少智能。智能不是凭空诞生,需要凭借深度学习算法对大数据进行“千锤百炼”,而大型语言模型(Large Language Models,LLMs)训练的过程必须依靠强大算力的支撑。在看到ChatGPT被热炒的同时,已经入局的相关科技公司所耗费算力也在不断狂飙。

在清楚ChatGPT背后的算力和经济账之前,需要了解一下大型语言模型(LLMs)是什么?目前业界对大型语言模型(LLMs)有着明确的定义,凭借深度学习算法进行训练,通过大量语料库数据来学习文本的概率分布和语法结构,并自动生成大量与语料库类似的高质量新文本,持续的训练可以提高生成质量。目前大型语言模型(LLMs)已经可以实现如互动问答、文本识别、文本分类、文本生成、代码生成等应用。但是大型语言模型(LLMs)目前无法识别不真实的语料数据。从而在采用正确语料数据过程中,也激发了业界相关数据标准公司的发展。

 

涉及LLMs的经典模型如BERT、GPT-3、Megatron-Turing NLG、GPT-4等。大型语言模型(LLMs)往往在大数据量的大规模数据集上进行训练,如GPT-3就有约1750亿个参数,在570千兆字节的文本上进行训练。而发展到OpenAI在2023年3月最新推出的GPT-4,标志着大型多模态AI开始崛起,业内之前有人预估GPT-4会拥有超过1万亿个参数。虽然OpenAI并未公布GPT-4的具体参数,但是据DeepMind研究发现,GPT-4将比GPT-3略大,达到计算最优所需的训练参数将有5万亿个。

 

实际上,十分惊人的大模型训练,对芯片的浮点计算能力要求超高。当前,ChatGPT采用的就是GPT-3大型语言模型(LLMs)进行训练,进行一次GPT-3训练需要总算力消耗约为3640PF-days,相当于每秒计算一千万亿次,需要算将近10年时间。这将意味着需要数亿美元投资数个大规模数据中心,每个数据中心算力达到500P,才能支撑得住。来自DeepMind的分析显示,为了最小化训练损失,训练GPT-4所需FLOP每秒浮点运算次数将是GPT-3的10-20倍。

 

从成本上来看,据Lambda Labs首席科学官Chuan li介绍,参数有1750亿个的GPT-3单次训练成本预计达到数百万美元。对照DeepMind的研究来看,单次训练GPT-4预估达到千万级美元的成本。

据SimilarWeb数据,2023年1月ChatGPT官网总访问量为6.16亿次;据《Fortune》杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元。ChatGPT训练基于针对GPT-3.5模型进行,基本参数自然不会比GPT-3模型少。假设单位算力成本固定,ChatGPT单月运营所需算力估算约4874.4PFlop/s-day,单月运营对应成本将达到数百万美元。

需要指出的是,为了支撑GPT-3、GPT-3.5、GPT-4的大模型训练,OpenAI采用上万颗英伟达高端A100 GPU打造了一台特别的超级计算机,其基础设施成本就高达数亿美元。

像这样稍微算一算ChatGPT背后所需算力与经济账,巨头玩家“井喷式”投入令人无不惊讶。现在看来,ChatGPT基于大型语言模型(LLMs)训练和推理的前期发展,恐怕只能由少数几个全球科技巨头玩家所主导了。

然而,无论是针对ChatGPT进行怎样的训练,任何“淘金”入局者必然都有一个相同的刚需,希望支撑训练平台的GPU算力的效率更高成本更低,这关乎着任何一家入局者的前期投入与研究回报。

那么,谁来为ChatGPT“淘金”入局者提供更好的GPU加持工具呢?值得深思。

02

「从巨头玩家到垂直行业应用」

未来模型变小才能更有机会

但是,面向垂直行业“淘金”,这样的ChatGPT主流玩家应该不是目前在ChatGPT上投入巨资的微软、谷歌等科技大佬,毕竟他们热衷的还是搜索引擎等大应用的大模型训练。当然,国内也有百度、腾讯、阿里、字节跳动、京东、360、科大讯飞等知名科技企业相继参与了进来,但这些科技公司更多聚焦在自身现有业务体系上做ChatGPT加持,开始热心ChatGPT垂直行业布局的还是比较少。

可见,专注ChatGPT垂直行业发展的主角,应当还是那些拥有强大集成能力的软件开发商。

“下一步,一旦ChatGPT聚焦在垂直行业领域发展,走向千行百业应用,必然会趋使模型变小。”趋动科技(VirtAI Tech)CEO王鲲与业内不少专家持有同样的观点。

更进一步分析来看,ChatGPT的“行业化”才可能更好地实现商业化。或许有人也会有疑问:ChatGPT走向垂直行业领域,为什么会趋使大模型小型化?从大模型到小模型,其中有四大影响,对ChatGPT行业普及十分有利。

一是,降低训练门槛,降低高算力高投入,让更多公司可以参与进来。如前文所述,对于GPT-3、GPT-3.5、GPT-4等大模型训练,必须有着超乎常态的强大算力支撑,以及巨大的成本投入,这对于垂直行业企业想要借助ChatGPT聊天机器人技术做应用创新带来很大的挑战。唯有降低门槛,才有可能实现后续的ChatGPT行业化的普及。

二是,聚焦专业领域,利于提高数据集质量,加速ChatGPT训练品质。在数据标注正确的前提下,高质量数据集决定聊天机器人品质,数据集越大ChatGPT训练的准确度越高。据OpenAI表示,最新发布的新一代多模态模型GPT-4比GPT-3.5参数更多、数据集更大,在安全性和精确性上实现巨大的提升,在受限制请求做出回应的可能性上,低82%;在编造内容的可能性上,低60%。

 

像微软与谷歌等科技巨头,想要做需要全行业聊天机器人,必然就得立足超大规模、覆盖所有领域的数据集进行训练,为了能保障数据的质量,又必须通过清洗与标准来强化数据的真实性、准确性、完整性与时效性。为此,做好数据标注也成为实现更好训练结果的关键一环,据美国《时代周刊》资料显示,针对ChatGPT,OpenAI与外包公司合作雇佣了大量人员做数据标注服务。即便已经拥有了大规模的数据集,但要满足细分行业的更多需求,ChatGPT目前可以实现的效果还是鞭长莫及。

一旦推动ChatGPT进入垂直化细分行业如医疗、银行、证券、交通等,聚焦某个垂直行业的数据集相对全行业全社会而言要小得多。小而精,小而专。行业越是聚焦,越是利于提高数据集质量,实现ChatGPT训练品质的飞跃提升。

三是,更容易将ChatGPT与垂直行业需求结合,发挥出行业应用价值。植根不同行业的应用需求,构建比较独立、逻辑清晰、数据准确的行业语料数据库,促进ChatGPT训练获得更好结果。更准确的ChatGPT训练,也会更快融入到垂直行业。垂直行业小模型、专业领域数据集缩小了企业的训练范围与强度,降低整体训练成本,从而带动ChatGPT走向to B企业级化。到那时才是ChatGPT的商业化发展阶段,从而带来百家争鸣的产业ChatGPT。

四是,促进ChatGPT云化,打造云端ChatGPT模型与工具集,公有云广泛的创新通路将加速ChatGPT普及。比如亚马逊云科技正在携手相关技术公司Hugging Face打造类似ChatGPT模型的Bloom,同时也与Stability AI合作构建类似OpenAI旗下Dall-E的图像工具,这些模型与工具都将会基于公有云发布。

当然,针对OpenAI公司有着数亿美元投资的微软,在其Azure公有云服务平台上率先推出了OpenAI服务,随后又将ChatGPT技术扩展到Power Platform上,助力开发者实现低代码或无代码开发。诸如此类,后续将会有更多公有云厂商将ChatGPT与公有云结合,或者有更多类似ChatGPT的软件开发商与公有云合作,加速聊天机器人相关技术云化的进程,也将进一步扩展ChatGPT的普及度。这样不仅可以影响C端个人用户,也可以影响B端企业用户,并为ChatGPT应用优化带来敏捷的有效途径。

诚然,从少数巨头玩家到更多的垂直行业,未来ChatGPT相关模型变小才符合行业发展的客观规律。不过,在王鲲看来,任何产业的成长都会经历从make it work到make it perform再到make it cheap三个发展阶段。当前ChatGPT正处于“make it perform”的可用阶段,后续必然会走向好用、用得起的阶段,这样才能让ChatGPT真正融入到垂直行业,走入“寻常百姓家”。

之所以要强调“从可用到好用再到用得起”的发展规律,因为只有真正实现了ChatGPT的“make it cheap”阶段,建立符合行业应用需求的专业聊天机器人,大家用得起后才会出现大规模普及,实现聊天机器人的真正商业化,从热衷于“调戏”ChatGPT到落地行业应用的商业化,彰显其前所未有的行业价值,让更多有志于走在ChatGPT淘金路上的企业获得成功。

03

「软件定义AI算力」

GPU池化将ChatGPT送入千行百业

既然模型的大小与否,从根本上影响到了ChatGPT训练所需的算力与成本,那么要将ChatGPT送入千行百业,就必须针对GPU算力与成本下足功夫。

在ChatGPT狂飙之前,成立于2019年的趋动科技(VirtAI Tech)就已经为业界带来了“GPU资源池化”独创技术,并且在银行、证券、能源、教育等多个垂直行业得到了大规模落地与成功应用,为用户“降本增效”的需求实现了更高的GPU利用率与更低的应用成本。

 

或许这就好比一把科技铁铲,将成为推动更多ChatGPT入局者进入千行百业“淘金”的有力工具。

相关数据显示,在算力方面,全球GPU用户的平均利用率低于15%,据亚马逊云科技在AWS re:Invent 上公布的数据显示,其GPU产品平均利用率仅为10~30%。国内有不少用户的利用率甚至不足10%,对这些用户而言,一颗售价1万美元的芯片可能其中9000美元就白白浪费了。

面向ChatGPT训练需要底层AI服务器的强大支撑,效率越高性能越好就越能让ChatGPT训练获得高价值的结果,其中的关键就是要将GPU能力发挥到极致。在支撑ChatGPT在垂直行业做模型训练方面,行业领域的用户需要构建更高效的服务器与GPU算力平台。对于任何一个行业用户而言,一旦上马ChatGPT模型训练,算力需求必然凸现,降低成本提高算力的效率将是必然之选。

纵观GPU的发展,在GPU资源利用的演进路线上,可以分为简单虚拟化、任意虚拟化、远程调用和资源池化四个阶段。提到GPU池化,往往有人容易想到传统的GPU虚拟化技术,或者叫GPU切片技术。但是,需要注意的是,传统的GPU虚拟化技术基于硬件思维,只能对本地物理机上的GPU进行虚拟切割。而GPU资源池化技术基于整个数据中心范围,不仅可以支持本地GPU虚拟化,而且打破单机资源调度的物理边界,让用户透明使用任意物理机上、任意数量、任意品牌厂商的GPU资源。作为AI算力资源池化解决方案的创新供应商,趋动科技的OrionX完全支持裸机、虚拟机、容器以及K8S等多种环境的完整的资源池化。

全球云观察分析指出,只有站在整个数据中心的高度,解决GPU利用率低、成本高、分配与管理难等问题,才能从真正意义上支撑ChatGPT面向垂直行业各种规模的数据集训练。

针对用户的不同采购需求,采取了两种灵活的商业模式,一是采取私有部署,类似VMware的软件授权销售方式,二是类似Flink基于公有云的服务方式。

对于第一种私有部署的商业模式,趋动科技聚焦软件定义AI算力,凭借GPU池化的创新,支撑ChatGPT的行业模型训练降本增效,将ChatGPT送入千行百业成为更大可能。为此,趋动科技在GPU软件领域的创新目的非常明确,打造GPU届的“VMware”,走的是标准化的商业软件道路。趋动科技赋能客户构建一个弹性、动态、灵活、高效的软件定义GPU算力资源池,根据用户具体的硬件与软件需求,将所有GPU的静态分配转换成动态分配,灵活支持用户实现GPU利用率最大化,提高利用率3-5倍,助力垂直行业的ChatGPT训练实现降本增效。

对于第二种类似Flink基于公有云的服务方式,趋动科技打造的趋动云是趋动科技利用其在算力资源池和开发训练平台领域的深厚积累,面向企业、科研和个人AI开发者构建的开发和推理训练服务。通过连接全球算力,趋动云可以为用户提供低成本、高按需保障、无厂商锁定的AI算力;通过为AI算法开发全流程提供优化服务,并构建全球开发者和项目资源分享社区,趋动云可以帮助AI开发者快速实现最佳实践。相关测试表明,采用同样模型训练,达到相同精度,目前采用算力池化的趋动云,比公有云成本低60%。

到目前为止,趋动云上线5个月左右,已经获得近万名注册用户,活跃用户数千人,活跃用户大部分来自全球高校AI相关专业老师与学生、有AI算法团队的中小企业和个人开发爱好者。目前前期主要构件AI开发者生态,培养GPU池化模式的未来用户基础。趋动云面向AI开发者实行“拎包入住”方式,并且开放大量数据集与源代码集,也已经上线众多模型,做了大量适合AI开发者的“刚需配套”,并且数据集在未来将进一步得到扩展。

此外,业内也有人说过,AI的尽头就是算力,就是GPU。从摩尔定律在计算芯片领域依然维持,很大原因是因为GPU迅速崛起,弥补了CPU发展的趋缓。目前GPU的晶体管数量增长已超过CPU,CPU晶体管开始落后于摩尔定律。这是一个数据智能的时代,也将是擅长浮点运算的GPU大放异彩的时代。

长风破浪会有时,直挂云帆济沧海。对于有用户实践、有技术积累、有行业理想的趋动科技而言,面对难得一遇的大好机会,大力支持ChatGPT等人工智能技术实现更多行业应用,加强发展GPU领域的相关技术创新,抓住前所未有的发展机遇,继续打磨ChatGPT垂直行业“淘金”的有力工具,进一步丰富AI算力资源池化解决方案,必将在中国行业数字化发展之路上赢得属于自己的未来。

机不可失,时不再来。站在ChatGPT的行业风口,趋动科技正迎风而上。

(by Aming)

- END-

欢迎文末评论补充!

【全球云储观察 | 阿明观察 |科技明说】专注科技公司分析,用数据说话,带你看懂科技。本文和作者回复仅代表个人观点,不构成任何投资建议。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/8361.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何实现chatgpt的打字机效果

点击↑上方↑蓝色“编了个程”关注我~ 这是Yasin的第 88 篇原创文章 打字机效果 最近在搭建chat gpt代理的时候,发现自己的配置虽然能够调通接口,返回数据,但是结果是一次性显示出来的,不像之前的chat gpt的官网demo那样实现了打字…

如何使用ChatGPT提升自己的“码”力?

如何使用chatGPT提升自己的"码"力? 代码评审(CodeReview)代码优化代码释义提供解决方案代码生成设计模式和架构建议学习新知识总结 ChatGPT是什么,我就不用再多介绍了吧!相信大家已经看到了它在文本领域所展现出来的实力,虽然目前…

云孚快写:自动生成多级目录,一键生成万字长文

1.产品简介 云孚快写是云孚科技自主研发的一款智能写作产品,基于大模型技术打造,针对长文写作场景深度优化,可根据文章标题一键生成目录,再根据目录一键生成正文,文章字数无上限,可极大提升用户的长文写作…

低调且强大--iVX低代码平台

iVX目录 前言一、低代码那么多 为什么选择iVX?二、“拼”出来的低代码平台,真的好用吗?三、iVX与其他低代码有啥可比性? 前言 首先我们应该明白自动编程突破可能是:领域内Mini LLM 现在的思路都是搞LLM,几乎…

多方合作时,系统间的交互是怎么做的?

大家好!我是sum墨,一个一线的底层码农,平时喜欢研究和思考一些技术相关的问题并整理成文,限于本人水平,如果文章和代码有表述不当之处,还请不吝赐教。 以下是正文! 文章背景 我们最近做了很多…

你真正了解低代码么?(国内低代码平台状况分析)

■ 写在前面■ 低代码产品如何分类,90% 的人都没有搞清楚■ 低代码平台如何比较?Point 在哪儿?一个比喻大家全听懂■ “拼”出来的低代码平台,真的好用吗?■ 推荐一款 C 端低代码产品 ■ 写在前面 都说技术是生产力&a…

【AI实战】给类ChatGPT的大语言模型外挂私有知识库

【AI实战】给类ChatGPT的大语言模型外挂私有知识库 原理准备环境代码下载 chatglm-6b 模型权重文件下载 Embedding 模型 GanymedeNil/text2vec-large-chinese安装依赖库我的计算资源 外挂知识库开启服务外挂知识库 测试参考 本文使用 langChain 来给大语言模型 ChatGLM-6B 外挂…

一块GPU搞定ChatGPT;ML系统入坑指南;理解GPU底层架构

1. 跑ChatGPT体量模型,从此只需一块GPU 在发展技术,让大模型掌握更多能力的同时,也有人在尝试降低AI所需的算力资源。最近,一种名为FlexGen的技术因为「一块RTX 3090跑ChatGPT体量模型」而获得了人们的关注。 虽然FlexGen加速后的…

谷歌研究科学家:ChatGPT秘密武器的演进与局限

来源|TalkRL OneFlow编译 翻译|徐佳渝、贾川 同样是基于GPT预训练模型,为什么ChatGPT的效果要远远超出GPT-3等前几代模型?答案已经揭晓,成就ChatGPT的秘密武器在于RLHF,也就是人类反馈的强化学习。 在预训…

用ChatGPT搞定K8s!

Kubernetes(K8s)非常火,但被人诟病最多的还是其复杂性,并且不管是在云中还是本地,都没有很好的集群故障排除的方法。因此,尽管K8s的采用率持续增长,但许多开发人员和运维团队对这项较新的技术感…

任正非:ChatGPT对我们的机会是什么,内部讲话实录!

ChatGPT狂飙160天,世界已经不是之前的样子。 我新建了人工智能中文站https://ai.weoknow.com 每天给大家更新可用的国内可用chatGPT资源 为感谢全国火花奖获奖者对于产业界及科学界做出的重大贡献,华为组织了与部分获奖老师与专家的座谈会。座谈会上&…

ChatGPT突遭大面积封号!网友应急出解封教程

一觉醒来,ChatGPT大面积封号的消息突然炸了。 据传闻,受影响的账户已经达到了数百万,亚洲是重灾区,其中不少都是国内的账号。 社交媒体上哀鸿遍野,网友纷纷表示自己的账号忽然就被封禁了,没有得到任何警告…

复旦发布类ChatGPT模型Moss;Linux 6.2 发布|极客头条

「极客头条」—— 技术人员的新闻圈! CSDN 的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。 整理 | 梦依丹 出品 | CSDN(ID:CSDNnews) 一分钟速览新闻点&…

理想汽车CEO李想:要挑战30到50万SUV市场20%份额

雷递网 雷建平 2月28日 理想汽车(纳斯达克:LI;香港交易所:2015)今日公布财报。财报显示,理想汽车2022年收入总额为452.9亿元(65.7亿美元),较2021年的270.1亿元增加67.7%。…

计算机状态下的语言学问题

【赏析】计算机状态下的语言学问题 ——读《传神的汉字》 摘要:两手都要硬--科学与马克思主义 传神的汉字——中国对世界最杰出的第五大发明。    修改为:    1、传神的汉字——中国对世界杰出的第五大发明。    评注:逻辑错误&#…

任正非正面回应!万字问答全文来了,涉及AI、教育、基础科学等多个重磅命题...

来源: 深城物联 3月17日,上海交通大学先进产业技术研究院披露了一篇《擦亮花火、共创未来——任正非在“难题揭榜”花火奖座谈会上的讲话》的文章,全文约1万字,曝光了华为创始人任正非对天才少年、校企合作等热点话题的看法&#…

ChatGPT爆火,AI正在冲击传统教育

ChatGPT横扫校园?遭受封杀? 01.黑马如何诞生 OpenAI开发的聊天机器人ChatGPT发布于2022年11月30日,随即在全球刮起了一股猛烈的旋风。市场研究机构Similarweb数据显示,2023年1月,ChatGPT独立访问用户达1.015亿&#xf…

探讨教育如何应对ChatGPT的冲击

许多年之后,史书写到 AI 时代时,将会提及 2023 年那个狂飙突进的春天。 2月初,瑞银(UBS)分析师指,ChatGPT 发布仅仅两个月就突破了 1 亿月活用户,成为史上普及最快的消费级应用。 ▲史上各项技…

任正非内部讲话:ChatGPT对我们的机会是什么(实录)

因公众号更改推送规则,请点“在看”并加“星标”第一时间获取精彩技术分享 点击关注#互联网架构师公众号,领取架构师全套资料 都在这里 0、2T架构师学习资料干货分 上一篇:ChatGPT研究框架(80页PPT,附下载)…

任正非最新谈中美、科技、ChatGPT

我们还是要把科学和技术分开,如果一讲做事要有目的性,目的性就是技术,不是科学。科学就是你的兴趣爱好,为了搞清楚不惜一切代价 文 | 任正非 近日,华为在深圳坂田总部隆重举办“难题揭榜”火花奖颁奖典礼,为…