国产AI服务器分类、技术及产品(2023)

目前国产服务器主要品牌也就是浪潮、曙光、华为、超聚变、新华三、联想、风虎(科研服务器风虎信息、风虎云龙),也还有很多其他品牌,外国品牌惠普、戴尔、IBM等在国内还有不小的份额,其实核心部件大家都一样,选国产的更划算。

说明:

1、华为、超聚变已经为两家,超聚变以X86架构服务器为主,华为在走自研处理器服务器,主要为鲲鹏、昇腾系列;

2、科研服务器往往是众多应用的基础、涉及科研方向、领域较宽,特别是不同软件特征和使用环境,要求团队要有相当的专业经验,科研服务器是各类应用场景的先导和基础。

AI服务器采取GPU架构,相较CPU更适合进行大规模并行计算。通用服务器采用CPU作为计算能力来源,而AI服务器为异构服务器,可以根据应用范围采用不同的组合方式,如CPUGPU、CPUTPU、CPU其他加速卡等,主要以GPU提供计算能力。从ChatGPT模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型RNN来看,Transformer架构下,AI模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从GPU的计算方式来看,由于GPU采用了数量众多的计算单元和超长的流水线,因此其架构设计较CPU而言,更适合进行大吞吐量的AI并行计算。

点击输入图片描述(最多30字)

深度学习主要进行矩阵向量计算,AI服务器处理效率更高。从ChatGPT模型结构来看,基于Transformer架构,ChatGPT模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而AI服务器中往往集成多个AI GPU,AI GPU通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI服务器往往较GPU服务器计算效率更高,具备一定应用优势。

点击输入图片描述(最多30字)

AI服务器分类方式有两种:

1)按应用场景:AI服务器按照应用场景可以分为深度学习训练型和智能应用推理型。训练任务对服务器算力要求较高,需要训练型服务器提供高密度算力支持,典型产品有中科曙光X785-G30和华为昇腾Atlas 800(型号9000、型号9010)。推理任务则是利用训练后的模型提供服务,对算力无较高要求,典型产品有中科曙光X785-G40和华为昇腾Atlas 800(型号3000、型号3010)。

2)按芯片类型:AI服务器为异构服务器,可以根据应用范围调整计算模块结构,可采用CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡等组合形式。目前,产品中最常见的是CPU+多块GPU的方式。

点击输入图片描述(最多30字)

常见的AI服务器分为四路、八路、十六路。一般来说,通用服务器主要采用以CPU为主导的串行架构,更擅长逻辑运算;而AI服务器主要采用加速卡为主导的异构形式,更擅长做大吞吐量的并行计算。按CPU数量,通用服务器可分为双路、四路和八路等。虽然AI服务器一般仅搭载1-2块CPU,但GPU数量显著占优。按GPU数量,AI服务器可以分为四路、八路和十六路服务器,其中搭载8块GPU的八路AI服务器最常见。

点击输入图片描述(最多30字)

AI服务器采用多芯片组合,算力硬件成本更高。我们以典型服务器产品为例拆解硬件构成,可以更清晰地理解两类服务器硬件架构区别:以浪潮通用服务器NF5280M6为例,该服务器采用1~2颗第三代Intel Xeon可扩展处理器,据英特尔官网,每颗CPU售价约64000万元,故该服务器芯片成本约64000~128000;以浪潮AI服务器NF5688M6为例,该服务器采用2颗第三代Intel Xeon可扩展处理器+8颗英伟达A800 GPU的组合,据英伟达官网,每颗A800售价104000元,故该服务器芯片成本约96万元。

点击输入图片描述(最多30字)

GPT模型训练需要大算力支持,或将带来AI服务器建设需求。我们认为,随着国内厂商陆续布局ChatGPT类似产品,GPT大模型预训练、调优及日常运营或将带来大量算力需求,进而带动国内AI服务器市场放量。以GPT-3 175B模型预训练过程为例,据OpenAI,进行一次GPT-3 175B模型的预训练需要的算力约3640 PFlop/s-day。我们假设以浪潮信息目前算力最强的AI服务器NF5688M6(PFlop/s)进行计算,在预训练期限分别为3、5、10天的假设下,单一厂商需采购的AI服务器数量分别为243、146、73台。

点击输入图片描述(最多30字)

AI大模型训练需求火热,智能算力规模增长有望带动AI服务器放量。据IDC数据,以半精度(FP16)运算能力换算,2021年中国智能算力规模约155.2EFLOPS。随着AI模型日益复杂、计算数据量快速增长、人工智能应用场景不断深化,未来国内智能算力规模有望实现快速增长。IDC预计2022年国内智能算力规模将同比增长72.7%至268.0 EFLOPS,预计2026年智能算力规模将达1271.4 EFLOPS,2022-2026年算力规模CAGR将达69.2%。我们认为,AI服务器作为承载智能算力运算的主要基础设施,有望受益于下游需求放量。EE芯视频推荐 视频:科电SMCV100B

点击输入图片描述(最多30字)

国产厂商布局丰富产品矩阵,占据全球AI服务器市场领先地位 浪潮信息、联想、华为等国产厂商在全球AI服务器市场占据领先地位。全球市场来看,AI服务器市场份额TOP10厂商中,国产厂商占据4席,累计市场份额超35%,其中浪潮信息以20.2%的份额排名第一。国内市场来看,AI服务器市场集中度较高,排名前三的供应商为浪潮信息、宁畅和华为,CR3达70.40%。我们认为,国产厂商凭借强大产品竞争力,已经在国际市场占据一定领先地位,未来随着AI算力需求释放,有望充分受益于产业成长机遇。

点击输入图片描述(最多30字)

浪潮信息:AI服务器产品矩阵丰富,产品力获国际认可。目前公司AI服务器主要产品型号包括NF5688M6、NF5488A5等,据公司官网,2021年上述两款AI服务器在国际权威AI基准测试MLPerf榜单中,获得医学影像分割、目标物体检测、自然语言理解、智能推荐等7项训练冠军,可满足包括自然语言理解等在内的多项AI训练需求。此外,公司在AI领域的积累还包括AI资源平台、AI算法平台等,具备大量算力解决方案实施经验。

点击输入图片描述(最多30字)

华为:AI服务器融合自研加速卡与英特尔CPU。公司AI服务器为Atlas 800推理服务器系列,旗下有型号3000、型号3010、型号9000和型号9010。其中,型号3000基于昇腾310芯片,型号3010基于Intel处理器,型号9000基于华为鲲鹏920+昇腾910处理器,型号9010基于Intel处理器+华为昇腾910芯片。旗舰级芯片加持下,产品最高拥有2.24 PFLOPS FP16的高密度算力,并在设计结构优化下,芯片间跨服务器互联时延可缩短10~70%。

点击输入图片描述(最多30字)

新华三AI服务器覆盖各训练负载要求,结合软件平台构建AI完整生态。公司主要产品型号包括R4900 G5、R5300 G5、R5500 G5等,可分别针对不同训练负载要求,满足大小规模的推理/训练任务。软件层面,公司通过新华三傲飞AI/HPC融合管理平台,全面提升AI作业效率约32%。2022年,新华三被国际权威分析机构Forrester认定为大型人工智能系统成熟厂商,可以提供可靠的服务器解决方案。同时,新华三AI服务器在MLPerf测评中共斩获86项世界第一。

点击输入图片描述(最多30字)

龙头厂商有望充分受益于算力需求释放。我们认为,随着ChatGPT待动大模型训练热潮,以人工智能训练为代表的智能算力需求逐步释放,有望带动AI服务器放量。拆解AI服务器成本来看,GPU等算力芯片为核心组件,先进算力产品受美国出口管制影响,但可通过采购A800实现基本替代。我们认为,浪潮信息等国产头部厂商凭借丰富产品矩阵和强大产品竞争力,占据全球AI服务器市场主要份额,未来有望充分受益于服务器需求释放。拆解来看,AI服务器主要成本包括算力芯片、内存、存储等。据IDC的2018年服务器成本结构拆分数据,芯片成本在基础型服务器中约占总成本的32%,在高性能或具有更强运算能力的服务器中,芯片相关成本占比可以高达50%-83%。以机器学习型AI服务器为例,其主要成本由GPU、CPU、内存及其他部件组成,其中GPU成本占比最高,达到72.8%。

点击输入图片描述(最多30字)

AI服务器算力芯片以GPU为主。据IDC,2022年国内人工智能芯片市场中,GPU芯片占据主要市场份额,达89.0%,主因GPU芯片并行计算架构更加适合于复杂数学计算场景,可以较好支持高度并行的工作负载,因此常用于数据中心的模型训练,以及边缘侧及端侧的推理工作负载。此外,其他主要的人工智能芯片还包括NPU、ASIC、FPGA等。一般而言,AI服务器中算力芯片需求数量取决于服务器设计性能要求,需求种类取决于成本、功耗、算法等指标。常见的算力芯片组合,如8x GPU+2x CPU、4x GPU+ 2x CPU、8x FPGA+1x CPU、4x FPGA+1x CPU等。

点击输入图片描述(最多30字)

GPU结构:计算单元+显存。计算单元(Streaming Multiprocessor):计算单元的功能是执行计算。其中每一个SM都有独立的控制单元、寄存器、缓存、指令流水线。显存(Global Memory):显存是在GPU板卡上的DRAM,容量大但速度慢。

1.计算单元底层架构: 显卡核心构成多样,不同核心专注不同任务。以英伟达为例,GPU显卡构成包括TENSOR CORE、CUDA和RT等部分。TENSOR CORE,即张量核心,是英伟达GPU上一块特殊区域,针对AI矩阵计算设计,可显著提高AI训练吞吐量和推理性能。CUDA则是英伟达生态中的通用结构,一般包括多个数据类型,适用于视频制作,图像处理,三维渲染等常见图像处理和计算工作。

点击输入图片描述(最多30字)

2、TOPS和TFLOPS是常见算力衡量单位:

1)OPS:OPS(Operations Per Second)指每秒执行的操作次数,是整数运算的单位,常在INT8、INT4等计算精度下度量算力性能。其中TOPS(Tera Operations Per Second)代表处理器每秒钟可进行一万亿次(10^12)操作,类似的单位还有诸如GOPS、MOPS,均代表每秒的操作次数。

2)FLOPS:FLOPS(Floating-point Operations Per Second)指每秒所执行的浮点运算次数,常在单精度(FP32)、半精度(FP16)等计算精度下度量算力性能。TFLOPS(Tera Floating-point Operations Per Second)代表处理器每秒钟可进行一万亿次(10^12)浮点运算。虽然TOPS和TFLOPS数量级一样,但前者是衡量操作次数,后者是衡量浮点运算,TOPS要结合数据类型精度(如INT8,FP16等)才能与FLOPS转换。

3.显存位宽、带宽与容量: 显存的主要指标包括位宽、带宽和容量。显存本身与CPU的内存类似,将数据在GPU核心与磁盘间传输。显存位宽是显存在一个时钟周期内所能传送数据的位数,决定了显存瞬时传输的数据量。显存带宽是指显示芯片与显存之间的数据传输速率,由显存频率和显存位宽共同决定,体现了显卡的速度和性能。显存容量决定了显存临时存储数据的多少。目前主流AI GPU芯片包括英伟达H100、A100以及V100等。全球来看,目前用于人工智能训练的AI GPU市场以英伟达为主导,公司旗下先进算力产品主要包括H100、A100以及V100。对比双精度浮点计算性能(FP64 Tensor Core)来看,H100、A100、V100计算速度分别为67 TFLOPS、19.5 TFLOPS、8.2 TFLOPS。从显存带宽来看,H100、A100、V100传输速度分别为3TB/s、2TB/s、900GB/s。

点击输入图片描述(最多30字)

先进算力芯片进口受限或为国产AI服务器的瓶颈之一。

2022年10月7日,美国商务部工业与安全局(BIS)宣布了针对中国出口先进芯片的管制新规声明。声明规定,满足输入输出(I/O)双向传输速度高于 600GB/s,同时每次操作的比特长度乘以 TOPS 计算出的处理性能合计为 4800 或更多算力的产品,将无法出口至中国。以英伟达A100为例,以TF32性能测算,即156*32=4992>4800,且传输速度为600GB/s。基于此,我们可以推断,性能大于等于A100 GPU的先进算力芯片属于美国出口限制范围。

采用英伟达A800服务器或为当前可行替代方案。以浪潮NF5688M6为例,NF5688M6是为超大规模数据中心研发的NVLink AI 服务器,支持2颗Intel最新的Ice Lake CPU和8颗NVIDIA最新的NVSwitch全互联A800GPU,单机可提供5PFlops的AI计算性能。对比核心硬件来看,NF5688M6采用英伟达中国特供版芯片—A800,在浮点计算能力、显存带宽、显存容量等性能指标上,与先进算力芯片—A100基本一致,主要差异在于芯片的数据传输速度,约为A100的三分之二。

点击输入图片描述(最多30字)

英伟达其他AI GPU芯片均不受出口限制影响。考虑到目前美国GPU芯片限制主要集中在先进算力领域,倘若未来进一步加大限制力度,A800等大算力芯片可能出现进一步被限制的风险。而从英伟达产品线布局来看,除了前面讨论的A100、A800、V100、H100等先进算力芯片外,还有A2、A10、A30、A40、T4等。这些芯片中,浮点计算能力最强的型号为A30,输出性能为82*32=2624<4800,因此不受出口限制影响。

点击输入图片描述(最多30字)

国产AI GPU性能持续升级,国产替代未来可期。目前国产AI GPU厂商主要包括阿里、华为、寒武纪、天数智芯等。随着国内厂商持续加强GPU研发,产品力不断升级。以华为昇腾910为例,该款芯片采用7nm制程,集成了超496亿个晶体管,可以提供320TFLOPS的FP16计算速度或640TOPS的INT8算力,略高于英伟达A100的FP16计算速度(312TFLOPS,不采用英伟达稀疏技术)。我们认为,单纯从芯片算力性能来看,部分国产芯片已经能够追赶海外主流芯片。随着国产生态逐步打磨,GPU性能提升有望推动国产化替代。

点击输入图片描述(最多30字)

总结:

1、GPT模型需要什么样的算力? ChatGPT采用单一大模型路线,对底层算力的需求主要体现在训练和推理两个层面,训练即使用大量数据集,对模型做反复迭代计算,推理即利用模型对输入信息进行处理并给出结果。

据IDC数据,2021年中国人工智能服务器工作负载中,57.6%的负载用于推理,42.4%用于模型训练。具体来看,算力需求场景包括预训练、Finetune以及日常运营。根据我们的测算,GPT-3 175B模型需要的预训练算力约3640 PFlop/s-day、ChatGPT单月运营需要的算力约7034.7 PFlop/s-day、单月Finetune需要的算力至少为1350.4 PFlop/s-day。

2、GPT模型需要什么样的服务器? 我们认为,服务器类型不断演化的动力来自:计算架构的变化。从服务器产业发展历程来看,随着计算架构从单机到C-S、C-E-S,陆续演化出PC、云计算、边缘计算等服务器类型。而在AI训练时代,C-S架构的回归以及大规模并行计算需求,又带来AI服务器的扩张。对比传统服务器来看,AI服务器由于采用GPU等加速卡,更加擅长向量、张量计算,对于AI训练及推理场景的处理能力更强,且采用多芯片组合架构,单台服务器芯片成本也较高。

3、GPT模型需要什么样的算力芯片? GPT模型的训练和推理计算主要由AI服务器完成,底层算力芯片主要包括CPU、GPU、FPGA、ASIC等。常见的算力芯片组合,如8x GPU+2x CPU、4x GPU+ 2x CPU、8x FPGA+1x CPU、4x FPGA+1x CPU等。据IDC,2022年国内人工智能芯片市场中,GPU芯片占据主要市场份额,达89.0%。目前海外主流AI GPU芯片包括英伟达H100、A100以及V100等。

4、美国先进算力芯片出口限制对GPT产业的影响? 受美国先进算力芯片出口限制政策影响,目前国内只能采购性能低于A100的AI GPU,如英伟达A800系列等。此外,英伟达A系列、T系列性能更低的前代版本尚且不受影响。考虑到部分国产AI GPU如华为昇腾在FP16浮点计算性能上已经实现对英伟达A100的加速追赶,未来随着国产生态打磨,AI GPU国产替代有望加速。5、AI服务器产业链相关公司有哪些?

  • 1)能够采购到海外高性能芯片的厂商:浪潮信息等;

  • 2)采用海光/寒武纪芯片的厂商:中科曙光;

  • 3)采用华为昇腾芯片的厂商:拓维信息等;

  • 4)底层芯片供应商:海光信息、寒武纪、景嘉微等。

以上内容节选自 智能计算芯世界2023-03-01,本文转载有联系发布方,如有转载请联系原出处。

目前国产服务器主要品牌也就是浪潮、曙光、华为、超聚变、新华三、联想、风虎(科研服务器风虎信息、风虎云龙),也还有很多其他品牌,外国品牌惠普、戴尔、IBM等在国内还有不小的份额,其实核心部件大家都一样,选国产的更划算。

说明:

1、华为、超聚变已经为两家,超聚变以X86架构服务器为主,华为在走自研处理器服务器,主要为鲲鹏、昇腾系列;

2、科研服务器往往是众多应用的基础、涉及科研方向、领域较宽,特别是不同软件特征和使用环境,要求团队要有相当的专业经验,科研服务器是各类应用场景的先导和基础。

 

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/10787.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2023第五届双态IT北京用户大会 | 一起见证云原生时代的数据魅力

2023年6月9日-11日&#xff0c;由ITSS分会指导&#xff0c;ITSS数据中心运营管理组、双态IT论坛联合主办&#xff0c;ITSS媒体组协办的“2023第五届双态IT北京用户大会”将于北京召开。 为了能够有更多专注细分领域、内容深入的分享和探讨&#xff0c;每一届都会和论坛成员一起…

又涨了?2023全国程序员薪资最新统计(文末附招聘岗位)

大家好&#xff0c;金三银四招聘季还在进行中。刚好最近看到一份 2022 国内程序员薪酬报告&#xff0c;感觉挺有意思的&#xff0c;跟大家分享一下。 在科技迅速发展的时代&#xff0c;各行业对程序员的需求持续增长&#xff0c;程序员作科技市场的“重要基石”&#xff0c;薪…

AIGC如此火爆,有何机会? 10位大咖有话要说

金句 集锦 01‍‍‍‍ 大模型初步验证了一种新范式的价值&#xff0c;并且打破了此前的瓶颈。 02 目前可能90% 的创作都是人来做&#xff0c;剩下10% 由机器辅助&#xff0c;未来将反过来。 03 AI大模型&#xff08;比如ChatGPT&#xff09;的兴起跟2010年移动互联网刚起步一样…

谁是液冷行业真龙头?疯狂的液冷技术!

“人工智能领域AIGC”、“ChatGPT”、“数据特区”、“东数西算”、“数据中心”&#xff0c;可以说是2023年最热的概念&#xff0c;算力提升的背后&#xff0c;处理器的功耗越来越高&#xff0c;想发挥出处理器的最高性能&#xff0c;需要更高的散热效率。 算力井喷之下&…

协程Flow原理

什么是Flow Flow直译过来就是“流”的意思&#xff0c;也就是将我们我们任务如同水流一样一步一步分割做处理。想象一下&#xff0c;现在有一个任务需要从山里取水来用你需要怎么做&#xff1f; 扛上扁担走几十里山路把水挑回来。简单粗暴&#xff0c;但是有可能当你走了几十…

华为2023年一季度收入增长0.8%;微软将推私有版ChatGPT;2022年中国自动驾驶市场增速达106%丨每日大事件...

‍ ‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 企业动态 OpenAI完成新一轮融资&#xff0c;估值接近300亿美元 据报道&#xff0c;OpenAI完成3亿美元融资&#xff0c;估值达到270亿-290亿美元。本轮融资参与的风投公司包括老虎全球、红杉资本、加州Andreessen Horowit…

最全ChatGPT创业方向!谁是下个字节跳动?

图片&#xff5c;Photo by Jonathan Kemper on Unsplash ©自象限原创 作者&#xff5c;程心 编辑&#xff5c;云天明 排版&#xff5c;李帛锦 3月24日&#xff0c;OpenAI轻描淡写的宣布了两件大事&#xff1a; 一是ChatGPT联网了。 二是OpenAI开放了第三方插件&…

Flutter ChatGPT | 代码生成器

theme: cyanosis highlight: mono-blue ChatGPT 作为一个自然语言处理工具&#xff0c;已经火了一段时间。对待 ChatGPT 不同人有着不同的看法&#xff0c;新事物的出现必然如此。利益相关者形成 抵制 和 狂热 两极&#xff1b;哗众取宠者蹭蹭热度&#xff0c;问些花活&#xf…

汽车+ChatGPT 车内生活体验再升级

这两年&#xff0c;人工智能工具ChatGPT爆火&#xff0c;在全球掀起了大模型之战。如今&#xff0c;最前沿的自然语言处理大模型应用到了人类的出行工具上&#xff0c;梅赛德斯-奔驰和微软官宣正在合作测试车载ChatGPT人工智能&#xff0c;并将面向约90万车主开启测试&#xff…

chatGPT对SAP各模块顾问需要掌握的技术分析,看看chatGPT对SAP顾问有哪些建议

序言 OpenAI 使用监督学习和强化学习的组合来调优 ChatGPT&#xff0c;其中的强化学习组件使 ChatGPT 独一无二。OpenAI 使用了「人类反馈强化学习」&#xff08;RLHF&#xff09;的训练方法&#xff0c;该方法在训练中使用人类反馈&#xff0c;以最小化无益、失真或偏见的输出…

ChatGPT的强劲对手Claude来了。免费!国内可以丝滑用

大家好&#xff0c;我是雷慢慢&#xff0c;欢迎大家来到AI训练营&#xff0c;那么今天我想给大家演示的是一个ChatGPT的强劲对手&#xff0c;它的名字叫Claude。 这个产品跟ChatGPT极为类似&#xff0c;因为Claude的创始团队成员之前也在OpenAI工作&#xff0c;他们是两兄妹&am…

ChatGPT的前世今生(2023)

本篇分享的是464页幻灯片《ChatGPT 的前世今生》的PDF版本。ChatGPT的历史可以追溯到2018年&#xff0c;当时OpenAI推出了第一个GPT模型。随着技术的不断进步&#xff0c;GPT-2在2019年推出&#xff0c;它拥有更强的语言生成能力和多任务学习能力。随后&#xff0c;OpenAI推出了…

自己实现 ChatGpt ?先学习 Pytorch 吧

最近 ChatGpt 的爆火&#xff0c;让人非常震撼&#xff0c;无论是知识问答、对话还是代码撰写&#xff0c;都非常符合人们的预期&#xff0c;让人不得不感慨机器学习的强大。不信&#xff1f;看下面&#xff1a; 图1 语言分析处理 图2 知识问答 图3 写故事 图4 写代码 体…

怎样让ChatGPT在其内部训练神经网络?

怎样让ChatGPT在其内部训练神经网络&#xff1f;这个话题有点超乎大多数人的理解。 步骤是这样的: 1. 先让它伪装成 Ubuntu 18.04&#xff0c;给它说你安装了 Python 3.9, Pytorch 1.8, CUDA 11.3 和其他训练一个 pytorch 模型所需要的库。 让 ChatGPT 伪装成 Linux 终端&#…

【饭谈】大佬们已经联名叫停了ChatGpt的继续进化,据说已经出现不可理解逻辑。

前几天我刚刚发文章&#xff0c;劝大家不要因为gpt的出现太过焦虑&#xff1a; 【饭谈-缓解焦虑】浅谈下目前AI【ChatGpt】现状和测试行业未来预测 说世界顶级大佬肯定会出手制裁这个野蛮成长的新神&#xff0c;这不&#xff0c;马上就有新闻验证了这个猜测&#xff1a; 昨天的…

CHATGPT+WECHAT 国内环境 学习体验版

1.注意事项 本文描述为学习学术研究&#xff0c;不商用&#xff0c;魔法工具请自行解决。不提供任何魔法工具的说明与教程&#xff1b; 教程说明的为学习环境&#xff0c;不建议部署至国内VPS&#xff0c;会有封号风险&#xff0c;有条件的可在国外vps 进行部署&#xff1b; …

ChatGPT的跳跃式技术突破!

ChatGPT自从发布以来&#xff0c;一直热度不减&#xff0c;围绕它的话题也是持续不断。 而ChatGPT 之所以引起这么大的社会反响&#xff0c;不仅仅是因为它作为一个对话机器人&#xff0c;效果比之前的对话机器人好了一大截&#xff0c;还因为它从技术的角度来看&#xff0c;出…

ChatGPT , 王炸!!!

昨天我们的ChatGPT星球 实在是太火爆了&#xff0c; 原本以为加入的兄弟不会太多&#xff0c; 我就只设置了50张优惠券&#xff0c; 没想到不到1个小时又被抢完了。 欢迎你加入我们的「ChatGPT编程圈」&#xff0c;带着大家一起探索ChatGPT和新的AI时代。 ChatGPT 编程圈&#…

ChatGPT的语言艺术

介绍 本文用于了解和利用各种提示技术&#xff0c;从ChatGPT生成高质量的答案。 我们将探讨如何利用不同的提示工程技术来实现不同的目标。ChatGPT是一种最先进的语言模型&#xff0c;能够生成类似人类的文本。然而&#xff0c;了解向ChatGPT提问的正确方式&#xff0c;以获得我…