ChatGPT需要怎样的芯片?

最近,以ChatGPT为首的生成类模型已经成为了人工智能的新热点,硅谷的微软、谷歌等都纷纷大举投资此类技术(微软100亿美元入股ChatGPT背后的OpenAI,谷歌也于近日发布了自研的BARD模型),而在中国以百度等为代表的互联网科技公司也纷纷表示正在研发此类技术并且将于近期上线。

以ChatGPT为代表的生成类模型有一个共同的特点,就是使用了海量数据做预训练,并且往往会搭配一个较为强大的语言模型。语言模型主要的功能是从海量的现有语料库中进行学习,在经过学习之后可以理解用户的语言指令,或者更进一步根据用户的指令去生成相关的文字输出。

生成类模型大致可以分成两大类,一类是语言类生成模型,另一类是图像类生成模型。语言类生成模型以ChatGPT为代表,如前所述其语言模型不仅可以学习理解用户指令的意义(例如,“写一首诗,李白风格的”),而且在经过海量数据训练之后,还能够根据用户的指令生成相关的文字(在上例中就是写一首李白风格的诗)。这意味着ChatGPT需要有一个足够大的语言模型(Large Language Model,LLM)来理解用户的语言,并且能有高质量的语言输出——例如该模型必须能理解如何生成诗歌,如何生成李白风格的诗歌等等。这也意味着语言类生成式人工智能中的大语言模型需要非常多的参数,才能完成这类复杂的学习并且记住如此多的信息。以ChatGPT为例,其参数量高达1750亿(使用标准浮点数的话会占用700GB的存储空间),其语言模型之“大”可见一斑。

340ce4c363ae1dada9f48a576c807461.png

ChatGPT生成回答的一个例子,支持中文

另一类生成类模型是以扩散模型(Diffusion)为代表的图像类生成模型,典型的模型包括来自OpenAI的Dalle,谷歌的ImaGen,以及目前最热门的来自Runway AI的Stable Diffusion。这类图像类生成模型同样会使用一个语言模型来理解用户的语言指令,之后根据这个指令来生成高质量的图像。与语言类生成模型不同的是,这里使用到的语言模型主要用语理解用户输入,而无需生成语言输出,因此参数量可以小不少(在几亿数量级),而图像的扩散模型的参数量相对而言也不大,总体而言参数量大约在几十亿数量级,但是其计算量并不小,因为生成的图像或者视频的分辨率可以很高。

417b504ebfab2c509a3b51fbf4d9e51a.png

图像生成模型生成的图像一例

生成类模型通过海量数据训练,可以产生前所未有的高质量输出,目前已经有了不少明确的应用市场,包括搜索、对话机器人、图像生成和编辑等等,未来可望会得到更多的应用,这也对于相关的芯片提出了需求。


生成类模型对于芯片的需求

如前所述,以ChatGPT为代表生成类模型需要在海量的训练数据中进行学习,才能实现高质量的生成输出。为了支持高效率训练和推理,生成类模型对于相关芯片也有自己的需求。

首先就是对于分布式计算的需求。ChatGPT这类语言类生成模型的参数量高达千亿,几乎不可能使用单机训练和推理,而必须大量使用分布式计算。在进行分布式计算时,对于机器之间的数据互联带宽,以及计算芯片对于这类分布式计算(例如RDMA)就有了很大的需求,因为很多时候任务的瓶颈可能并不在计算,而是在数据互联上面,尤其是在此类大规模分布式计算中,芯片对于分布式计算的高效率支持更加成为了关键。

其次是内存容量和带宽。虽然对于语言类生成模型分布式训练和推理不可避免,但是每个芯片的本地内存和带宽也将很大程度上决定单个芯片的执行效率(因为每个芯片的内存都被使用到了极限)。对于图像类生成模型来说,可以把模型(20GB左右)都放在芯片的内存中,但是随着未来图像生成类模型的进一步演进,它对于内存的需求可能也会进一步提升。在这个角度来看,以HBM为代表的超高带宽内存技术将会成为相关加速芯片的必然选择,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。除了HBM之外,CXL等新的存储技术加上软件的优化也有将在这类应用中增加本地存储的容量和性能,估计会从生成类模型的崛起中获得更多的工业界采用。

最后是计算,无论是语言类还是图像类生成类模型的计算需求都很大,而图像类生成模型随着生成分辨率越来越高以及走向视频应用,对于算力的需求可能会大大提升——目前的主流图像生成模型的计算量在20 TFlops左右,而随着走向高分辨率和图像,100-1000 TFLOPS的算力需求很有可能会是标准。

综上所述,我们认为生成类模型对于芯片的需求包括了分布式计算,存储以及计算,可谓是涉及了芯片设计的方方面面,而更重要的是如何把这些需求都以合理的方法结合到一起来确保某一个单独的方面不会成为瓶颈,这也将会成为一个芯片设计系统工程的问题。


GPU和新AI芯片,谁更有机会

生成式模型对于芯片有了新的需求,对于GPU(以Nvidia和AMD为代表)和新AI芯片(以Habana,GraphCore为代表),谁更有机会能抓住这个新的需求和市场?

首先,从语言类生成模型来看,由于参数量巨大,需要很好的分布式计算支持,因此目前在这类生态上已经有完整布局的GPU厂商更有优势。这是一个系统工程问题,需要完整的软件和硬件解决方案,而在这个方面,Nvidia已经结合其GPU推出了Triton解决方案。Triton支持分布式训练和分布式推理,可以把一个模型分成多个部分到不同的GPU上去处理,从而解决参数量过大一个GPU的主存无法容纳的问题。未来无论是直接使用Triton,还是在Triton的基础上做进一步开发,都是拥有完整生态的GPU更加方便一点。从计算上来看,由于语言类生成模型的主要计算就是矩阵计算,而矩阵计算本身就是GPU的强项,因此从这一点来看新的AI芯片相比GPU的优势并不明显。

从图像类生成模型来看,这类模型的参数量虽然也很大但是比语言类生成模型要小一到两个数量级,此外其计算中还是会大量用到卷积计算,因此在推理应用中,如果能做非常好的优化的话,AI芯片可能有一定机会。这里的优化包括大量的片上存储来容纳参数和中间计算结果,对于卷积以及矩阵运算的高效支持等。

总体来说,目前这一代AI芯片在设计的时候主要针对的是更小的模型(参数量在亿级别,计算量在1TOPS级别),而生成模型的需求相对而言还是比原来的设计目标要大不少。GPU在设计时以效率为代价换取了更高的灵活度,而AI芯片设计则是反其道而行之,追求目标应用的效率,因此我们认为在未来一两年内,GPU仍将会在此类生成式模型加速中独占鳌头,但是随着生成式模型设计更加稳定,AI芯片设计有时间能追赶上生成式模型的迭代后,AI芯片有机会从效率的角度在生成式模型领域超越GPU。

END

欢迎加入Imagination GPU与人工智能交流2群

8ca8904bfdd22e4eafb2cefa57e9d835.jpeg

入群请加小编微信:eetrend89

(添加请备注公司名和职称)

推荐阅读

对话Imagination中国区董事长:以GPU为支点加强软硬件协同,助力数字化转型

【有奖下载】IMG DXT GPU 让光线追踪触手可及

71eaead81773e2d0c12f1fb10ea7e186.png

Imagination Technologies 是一家总部位于英国的公司,致力于研发芯片和软件知识产权(IP),基于Imagination IP的产品已在全球数十亿人的电话、汽车、家庭和工作 场所中使用。获取更多物联网、智能穿戴、通信、汽车电子、图形图像开发等前沿技术信息,欢迎关注 Imagination Tech!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/14516.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

芯片是如何为ChatGPT提供算力的?怪不得地球都容不下它了

关注公众号,发现CV技术之美 近日,ChatGPT因大规模封号及关闭Plus付费会员的申请引发大家热议。 有网友说这是因为计算资源不够了,已经不单是靠钱能解决得了的问题,地球上已经没有足够的算力来满足ChatGPT的运行需求了。 AI的发展真…

ChatGPT发展报告:原理、技术架构详解和产业未来(附下载)

今年12月1日,OpenAI推出人工智能聊天原型ChatGPT,再次赚足眼球,为AI界引发了类似AIGC让艺术家失业的大讨论。 据报道,ChatGPT在开放试用的短短几天,就吸引了超过 100 万互联网注册用户。并且社交网络流传出各种询问或…

【自然语言处理】【ChatGPT系列】FLAN:微调语言模型是Zero-Shot学习器

FLAN: 微调语言模型是Zero-Shot学习器 《Finetuned Language Models are Zero-shot Learners》 论文地址:https://arxiv.org/abs/2109.01652 相关博客 【自然语言处理】【大模型】BLOOM:一个176B参数且可开放获取的多语言模型 【自然语言处理】【大模型】…

chatglm微调

chatGML 看到 【【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter】 【精准空降到 15:27】 https://www.bilibili.com/video/BV1fd4y1Z7Y5/?share_sourcecopy_web&vd_sourceaa8c13cff97f0454ee41e1f609a655f1&t927 记得看…

ChatGPT微调分类示例

我们将微调 ada 分类器以区分两种运动:棒球和曲棍球。 from sklearn.datasets import fetch_20newsgroups import pandas as pd import openaicategories [rec.sport.baseball, rec.sport.hockey] sports_dataset fetch_20newsgroups(subsettrain, shuffleTrue, …

45个 Cha​tGPT 常用插件说明

45个 ChatGPT 常用插件说明 ChatGPT常用的45个插件,以及它们用途说明: 1/ Slack:查询Slack信息 2/ Zapier:与5000应用,如Google Sheets和Docs进行交互。 3/ Expedia:在一个地方激活你的旅行计划 4/ Kla…

【.Net/C#之ChatGPT开发系列】四、ChatGPT多KEY动态轮询,自动删除无效KEY

ChatGPT是一种基于Token数量计费的语言模型,它可以生成高质量的文本。然而,每个新账号只有一个有限的初始配额,用完后就需要付费才能继续使用。为此,我们可能存在使用多KEY的情况,并在每个KEY达到额度上限后&#xff0…

1.3 - 操作系统 - firewalld防火墙iptables防火墙

「作者简介」:CSDN top100、阿里云博客专家、华为云享专家、网络安全领域优质创作者 「订阅专栏」:此文章已录入专栏《网络安全入门到精通》 Linux防火墙 Frewalld1、常用操作2、开放/关闭服务3、开放/关闭端口4、IP访问端口规则5、安全域Iptables1、常用操作2、四表五链cent…

再见操作系统!ChatGPT和Windows直接在一起了

来源:水木学堂 二十世纪初,微软曾发起过一场“浏览器战争”,用 IE 4.0 成功打赢了浏览器市场份额超过 90% 以上的网景浏览器。当时,微软用的就是“将 IE 放在 Windows 98 ”这样的“禁忌武器”,还因此遭到了日后的反垄…

ChatGPT封杀潮,禁入学校,AI顶会特意改规则,LeCun:要不咱把小模型也禁了?...

2023 点击蓝字 关注我们 关注并星标 从此不迷路 计算机视觉研究院 计算机视觉研究院专栏 作者:Edison_G 狂欢之后,事情的走向开始进入封杀这一过程。 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 转自《机器之心》…

VPS(Linux)解决ChatGPT Access Denied(错误码1020)方法

本文参考了GitHub的一个开源项目,项目地址:https://github.com/fscarmen/warp 操作方法: 以下两个脚本二选一,部署完成后记得重启VPS VPS嵌套WARP后,建议开启BBR,能够有效降低延迟 WARP部署脚本: wget -N https://raw.githubu…

奶奶版ChatGPT炸了!背刺微软泄露Win11秘钥!

教坏一个大模型的成本实在太低了! 大家都知道,ChatGPT本身可以制造“幻觉”,却也原来如此容易被“情感”所利用!只要故事讲的好,让ChatGPT为你摘星星都没问题!万万没想到,通过让ChatGPT扮演一个…

第一批因ChatGPT坐牢的人,已经上路了

大家好,我是 Jack。 ChatGPT 的火爆有目共睹,有人靠着它赚了第一桶金,也有人靠着它即将吃上第一顿牢饭。 任何一件东西的火爆,总会给一些聪明人带来机会。 艾尔登法环火的时候,一堆淘宝卖魂的;羊了个羊火…

机器学习--最小二乘法

补充: 一. 简介 最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法…

java最后问面试官什么问题,大量教程

魔鬼面试官必问:ConcurrentHashMap 线程安全吗?但面对魔鬼面试官时,我们更在乎的是这些真的正确吗? 1 线程重用导致用户信息错乱生产环境中,有时获取到的用户信息是别人的。查看代码后 为方便观察问题,我们输出了这个Map一开始和最后的元素个数。 师兄大厂面试遇到面试官的Ka…

计算机网络参考模型及协议

目录 一、计算机网络概述 1.1计算机网络与通信 1.2计算机IP地址与Mac地址 1.3计算机网络相关术语 1.4计算机网络相关设备 1.5计算机网络分类 二、计算机网络分层 2.1计算机网络分层的必要性 三、OSI七层参考模型 3.1应用层 3.2表示层 3.3会话层 3.4传输层 3.5网络…

纪念成为博客专家

一、前言 是的,一直到现在都有点蒙蒙的。从上周六提交申请之后,一直没有消息,博主自己都放弃了。这是第四次申请,虽然申请了很多次,但内心一直有些打退堂鼓,觉得自己的技术水平并不到位,其他的专…

你们都去养猪,我还写前端,然后自费送签名书

文/北妈 阅读本文需要 2.1分钟 这是北妈第 221篇 原创文章 一 我们的口号是? 忘了?周五不加班,周五不加班,不加班! 今天北妈我就说两点,说完去吃饭。 1、最近朋友圈、大V们,人人都在养猪&#x…

惊呆了!Java程序员最常犯的错竟然是这10个

和绝大多数的程序员一样,我也非常的宅。周末最奢侈的享受就是逛一逛技术型网站,比如说 programcreek,这个小网站上有一些非常有意思的主题。比如说:Java 程序员最常犯的错竟然是这 10 个,像这类令人好奇心想害死猫的主…

spring boot从0到实战 全

前言:看到这篇博客的小可爱们,这篇博客是我自己从0到实战的笔记,后面我会附上我整个过程的源码给大家参考,一起加油把。 同时,这是上一篇博客,SpringBoot详解,完整版。从0到1!&#…