5天注册破百万,一文详解爆火 ChatGPT 到底是个啥

作者:qizailiu,腾讯 IEG 应用研究员

导读

OpenAI 近期发布聊天机器人模型 ChatGPT,迅速出圈全网。它以对话方式进行交互。以更贴近人的对话方式与使用者互动,可以回答问题、承认错误、挑战不正确的前提、拒绝不适当的请求。高质量的回答、上瘾式的交互体验,圈内外都纷纷惊呼。

为什么有如此高的评价?理论支撑是什么?背后的技术原理是什么?待解决的问题和方案有哪些?资本怎么看待这件事?本文的目标是将这些问题详细的给大家讲清楚。

1 ChatGPT 是什么?

ChatGPT 本质是一个应用在对话场景的语言模型,基于 GPT3.5 通过人类反馈的强化学习微调而来,能够回答后续问题、承认错误、质疑不正确的前提以及拒绝不适当的请求。首先让我们今天的主角 ChatGPT 来亲自介绍自己。

1.1 让 ChatGPT 介绍自己

ChatGPT 是什么?既然 ChatGPT 是语言模型,语言模型是什么?通过强化学习训练,强化学习又是什么?

1.2 全球范围的兴起和爆发

OpenAI 11 月 30 号发布,首先在北美、欧洲等已经引发了热烈的讨论。随后在国内开始火起来。全球用户争相晒出自己极具创意的与 ChatGPT 交流的成果。ChatGPT 在大量网友的疯狂测试中表现出各种惊人的能力,如流畅对答、写代码、写剧本、纠错等,甚至让记者编辑、程序员等从业者都感受到了威胁,更不乏其将取代谷歌搜索引擎之说。继 AlphaGo 击败李世石、AI 绘画大火之后,ChatGPT 成为又一新晋网红。下面是谷歌全球指数,我们可以看到火爆的程度。

国内对比各大平台,最先火起来是在微信上,通过微信指数我们可以看到,97.48%来自于公众号,开始于科技圈,迅速拓展到投资圈等。我最先了解到 ChatGPT 相关信息的也是在关注的科技公众号上,随后看到各大公众号出现关于介绍 ChatGPT 各种震惊体关键词地震、杀疯了、毁灭人类等。随后各行各业都参与进来有趣的整活,问数学题,问历史,还有写小说,写日报,写代码找 BUG…

1.3 背后的金主 OpenAI

OpenAI 是一个人工智能研究实验室,目的是促进和发展友好的人工智能,使人类整体受益。OpenAI 原是非营利机构,但为了更好地实现产研结合,2019 年 3 月成立 OpenAI LP 子公司,目的为营利所用。

2019 年 7 月微软投资双方将携手合作,2020 年 6 月宣布了GPT-3语言模型,刷新了人们对 AI 的认知。GPT 系列语言模型让我们不断对通用人工智能(AGI)充满了期待。

OpenAI 目标之初就很远大,解决通用人工智能问题,主要涉及强化学习和生成模型。

强化学习最早被认为是实现人类通用智能重要手段,2016 年 DeepMind 开发的 AlphaGo Zero 使用强化学习训练,让人类围棋的历史经验成为了「Zero」,标志着人类向通用型的人工智能迈出了重要一步。2019 年 OpenAI 在《Dota2》的比赛中战胜了人类世界冠军。OpenAI 在强化学习有很多深入的研究,Dactyl 也是一款 OpenAI 通过强化强化学习训练能够高精度操纵物体的机器人手,OpenAI Gym 是一款用于研发和比较强化学习算法的工具包,所以 ChatGPT 中使用强化学习也是顺理成章。

生成模型方面,为我们熟知的是 GPT-3,这是一个强大的语言模型能够生成人类一样流畅的语言。DellE 2 是最近很火的 AI 绘画根据文本描述生成图片。Codex 是和微软合作通过 github 代码训练而来,可以生成代码和 Debug,已经商业化。

作为 OpenAI 曾经的创始人伊隆·马斯克也发表了对 ChatGPT 的评价!

看看 ChatGPT 是怎么介绍自家公司的?

2 ChatGPT 一些有趣的体验

作为一个聊天机器人,我们体验发现相比传统的机器人在连贯性问答中更加流畅自然。微信上已经有很多的小程序可以体验,或者直接讲 ChatGPT 接入了微信中,下面体验一下已经接入到企业微信的 ChatGPT。

1)公司一向注重价值观,第一道题已经不符合公司价值观了,公司规定应第一时间退回,特殊情况无论价值多少都需要进行申报,所以 ChatGPT 应该入职不了我司。第二道经典问题的回答还蛮符合公司正直的价值观的,哈哈。

2)公司协会活动总又人放鸽子,我来问问 ChatGPT 这些人啥心态。看到帮忙想的理由和放鸽子的人说的一样,我有点怀疑他们的心态了。

3)职场工具人看看能不能通过 ChatGPT 代劳,可以看到文案写作还是不错的。回答的这个提纲有一点小问题但不影响大局。讲故事编剧本也是不错的,先帮中国足球写好参加世界杯的文案,就是不知道能不能用的上了。

4)身边同事很重视娃的教育,那么从娃娃抓起先看看 ChatGPT 能不能带娃学习。文化常识题回答正确,数学题这推理能力,我担心娃考不上初中,可以用但是家长给把把关啊!同时也考察了一下他脑筋急转弯怎么样,这个傻瓜没答对。

5)号称编程神器可写代码、修 bug,考察一下 Leetcode 中等难度的都没问题。虽然它自谦不会编程,但根据测试和网友的验证能力确实强。

6)考察一下互联网知识储备,挑战失败!如 ChatGPT 自己所述,他还有很多局限性比如给出看起来没问题其实挺离谱的答案,例如回答自己公司的成果还夹杂私人感情,把竞争对手 DeepMind 的 AlphaGo 功劳都据为己有。

做一个小结,其实网上有特别多有趣的案例,这里篇幅有限只是简单了列举几个。通过体验结合网友的反馈,ChatGPT 的确掌握了一些知识体系和回答技巧。我们看到相比传统的聊天机器人,ChatGPT 在连贯性问答中更加流畅自然,什么话都能接住。除了好玩的聊天神器外还有很多实用的价值,比如解答专业概念、编程类问题、从日常邮件、写请假条、广告文案等等,都可以通过 ChatGPT 代劳。看完这些有趣的案例,那么 ChatGPT 究竟如何实现的,我们接下来将讲解关于 ChatGPT 的哪些技术原理。

3 ChatGPT 之前技术沿袭

ChatGPT 是基于 GPT3.5 语言模型,人类反馈的强化学习微调而来。本节将对涉及语言模型和强化学习两个重要技术做一个科普,已经熟悉的可直接跳过本节。

3.1 语言模型的技术演进

语言模型通俗讲是判断这句话是否通顺、正确。数学函数表达为给定前 N 个词,预测第 N+1 个词概率,将概率序列分解成条件概率乘积的形式,这个函数就可以实现语言模型去生成句子。那么是什么样的语言模型如此强大,本小节梳理了深度学习开始的语言模型演技过程,如下图所示:

第一次开始用神经网络做语言模型是 2003 年 Bengio 提出的 NNLM 的网络结构,随着图像领域预训练的取得的突破迅速迁移到 NLP 领域,有了我们熟知的 word2vec,通常做 NLP 任务句子中每个单词 Onehot 形式输入,使用预训练好的 word embedding 初始化网络的第一层,进行下游任务。word2vec 的弊端是 word embedding 静态的,后续代表性工作中 ELMo 通过采用双层双向 LSTM 实现了根据当前上下文对 Word Embedding 动态调整。

ELMo 非常明显的缺点在特征抽取器 LSTM 结构带来的,17 年 Google 在机器翻译 Transformer 取得了效果的突破,NLP 各种任务开始验证 Transformer 特征提取的能力比 LSTM 强很多。自此 NLP 开启了 Transformer 时代。

2018 年 OpenAI 采用 Transformer Decoder 结构在大规模语料上训练 GPT1 模型横扫了各项 NLP 任务,自此迈入大规模预训练时代 NLP 任务标准的预训练+微调范式。由于 GPT 采用 Decoder 的单向结构天然缺陷是无法感知上下文,Google 很快提出了 Encoder 结构的 Bert 模型可以感知上下文效果上也明显有提升。随后 2019 年 OpenAI 提出了 GPT2,GPT2 拥有和 GPT1 一样的模型结构,但得益于更高的数据质量和更大的数据规模有了惊人的生成能力。同年 Google 采用了 Encoder-Decoder 结构,提出了 T5 模型。从此大规模预训练语言模型兵分三路,开始了一系列延续的工作。

2020 年 OpenAI 提出 GPT3 将 GPT 模型提升到全新的高度,其训练参数达到了 1750 亿,自此超大模型时代开启。技术路线上摒弃了之前预训练+微调的范式,通过输入自然语言当作指示生成答案,开始了 NLP 任务新的范式预训练+提示学习。由于 GPT3 可以产生通顺的句子但是准确性等问题一直存在,出现 WebGPT、InstructGPT、ChatGPT 等后续优化的工作,实现了模型可以理解人类指令的含义,会甄别高水准答案,质疑错误问题和拒绝不适当的请求。

3.2 深度强化学习技术演进

深度强化学习(deep reinforcement learning,DRL)是强化学习一个分支,基于深度学习强大的感知能力来处理复杂的、高维的环境特征,并结合强化学习的思想与环境进行交互,完成决策过程。DRL 在游戏场景这种封闭、静态和确定性环境可以达到甚至超越人类的决策水平。比较著名的事件是 2017 年 DeepMind 根据深度学习和策略搜索的 AlphaGo 击败了围棋世界冠军李世石。2018 年 OpenAI 团队基于多智能体 DRL 推出的 OpenAI Five 在 Dota2 游戏中击败了人类玩家。DRL 算法主要分为以下两类:

值函数算法:值函数算法通过迭代更新值函数来间接得到智能体的策略,智能体的最优策略通过最优值函数得到。基于值函数的 DRL 算法采用深度神经网络对值函数或者动作值函数进行近似,通过时间差分学习或者 Q 学习的方式分别对值函数或者动作值函数进行更新。代表性的是 2015 年 DeepMind 团队提出深度 Q 网络(DQN),及其后的各种变种 DDQN、Dueling DQN、分布式 DQN 等。

策略梯度算法:策略梯度算法直接采用函数近似的方法建立策略网络,通过策略网络选取动作得到奖励值,并沿梯度方向对策略网络参数进行优化,得到优化的策略最大化奖励值。可以用来处理连续动作。在实际应用中流行的做法是将值函数算法和策略梯度算法结合得到的执行器‒评价器(AC)结构。代表性工作有策略梯度算法、AC 算法以及各种变种 DDPG、A3C、PPO 等。ChatGPT 使用的就是策略梯度算法 PPO。

4 ChatGPT 背后的技术原理

ChatGPT 整体技术方案是基于 GPT-3.5 大规模语言模型通过人工反馈强化学习来微调模型,让模型一方面学习人的指令,另一方面学习回答的好不好。

本节首先阐述 ChatGPT 提升的效果及背后对应的技术,然后介绍 ChatGPT 的整体训练流程,其次介绍提升涉及几个技术细节。

4.1 核心提升了什么?

ChatGPT 在对话场景核心提升了以下三方面:

1)更好的理解用户的提问,提升模型和人类意图的一致性,同时具备连续多轮对话能力。

2)大幅提升结果的准确性,主要表现在回答的更加的全面,同时可以承认错误、发现无法回答的问题。

3)具备识别非法和偏见的机制,针对不合理提问提示并拒绝回答。

ChatGPT 的提升主要涉及以下三方面技术:

1)性能强大的预训练语言模型 GPT3.5,使得模型具备了博学的基础。

2)webGPT 等工作验证了监督学习信号可大幅提升模型准确性。

3)InstructGPT 等工作引入强化学习验证了对齐模型和用户意图的能力。

4.2 整体技术流程

ChatGPT 的训练过程分为微调 GPT3.5 模型、训练回报模型、强化学习来增强微调模型三步:

第一步:微调 GPT3.5 模型。让 GPT 3.5 在对话场景初步具备理解人类的的意图,从用户的 prompt 集合中采样,人工标注 prompt 对应的答案,然后将标注好的 prompt 和对应的答案去 Fine-tune GPT3.5,经过微调的模型具备了一定理解人类意图的能力。

第二步:训练回报模型。第一步微调的模型显然不够好,至少他不知道自己答的好不好,这一步通过人工标注数据训练一个回报模型,让回报模型来帮助评估回答的好不好。具体做法是采样用户提交的 prompt,先通过第一步微调的模型生成 n 个不同的答案,比如 A、B、C、D。接下来人工对 A、B、C、D 按照相关性、有害性等标准标准并进行综合打分。有了这个人工标准数据,采取 pair-wise 损失函数来训练回报模型 RM。这一步实现了模型判别答案的好坏。

第三步:强化学习来增强微调模型。使用第一步微调 GPT3.5 模型初始化 PPO 模型,采样一批和前面用户提交 prompt 不同的集合,使用 PPO 模型生成答案,使用第二步回报模型对答案打分。通过产生的策略梯度去更新 PPO 模型。这一步利用强化学习来鼓励 PPO 模型生成更符合 RM 模型判别高质量的答案。

通过第二和第三步的迭代训练并相互促进,使得 PPO 模型能力越来越强。

4.3 主要涉及的技术细节

4.3.1 GPT3.5 理解能力提升

ChatGPT 是在 GPT3.5 模型技术上进行微调的,这里对 GPT-3.5 在 GPT3 基础上做的工作进行梳理,官方列举了以下 GPT-3.5 系列几个型号:

code-davinci-002 是一个基础模型,对于纯代码补全任务。这也是 ChatGPT 具备超强代码生成能力的原因。

text-davinci-002 是在 code-davinci-002 基础上训练的 InstructGPT 模型,训练策略是 instructGPT+FeedRM。

text-davinci-003 是基于 text-davinci-002 模型的增强版本,训练策略是 instructGPT+PPO。

根据如下图官方发布的模型时间线和文档,我们可以了解到 ChatGPT 是在 text-davinci-003 基础上微调而来,这也是 ChatGPT 模型性能如此强大的核心要素。因为 GPT-3.5 系列模型是在 2021 年第四季度之前的文本和代码样本上训练,所以我们体验 ChatGPT 时候同样无法回答训练样本日期之后的问题。

4.3.2 监督信号提升效果显著

GPT3 之前在预训练+微调已经是 NLP 任务中标准范式,GPT3 模型的训练是纯自监督学习并以 API 的形式发布,用户不具备微调的能力,官方也是主打预训练+提示学习的能力。Prompt 方法本质是挖掘语言模型本身具备的知识,恰当的提示去激发语言模型的补全能力。监督信号微调可以理解为改变了语言模型的理解能力,InstructGPT 的工作可以理解为对 GPT3-SFT 做了数据增强提升,使得模型在理解人类指令方面更出色。但这并不影响监督信号对最终效果的价值。

在 InstructGPT 的工作中,我们可以看到 GPT3-SFT 和 InstructGPT 在毒性、幻觉、理解客户能力上,监督学习微调已经和强化学习对比有很大的竞争力,甚至在幻觉角度比基于强化学习的 InstructGPT 提升很明显。

4.3.3 人类反馈强化微调效果

ChatGPT 通过人类反馈强化学习(RLHF)来让模型理解人类的指令。人类反馈强化学习(RLHF)是 DeepMind 早期提出的,使用少量的人类反馈来解决现代 RL 任务。RLHF 的思想在很多工作中都有体现,例如 OpenAI 的 webGPT、DeepMind 中 Sparrow 等都通过人类的反馈进一步提升大模型的效果。

RLHF 整个训练过程如下图所示:

目标是实现后空翻的任务,智能体 Agent 在环境中随机行动,每隔一段时间,两个行为的视频片段给一个人,人判断两个视频哪个更接近目标。通过人的反馈数据,学习一个最能解释人类判断的奖励模型 Reward Model,然后使用 RL 来学习如何实现目标。随着人类继续提供模型无法判断时候的反馈,实现了进一步完善它对目标的理解。智能体 Agent 从人类反馈中学习最终在许多环境中有时甚至是超过人类的表现。

4.4 行动驱动的大语言模型

尽管学术界一直无法真正定义 AGI,今年大型语言模型(LLM)的表现让我们对通用人工智能有了期待,通过 OpenAI 的 ChatGPT、Google 的 PaLM、DeepMind 的 Sparrow 取得的成功,人工智能的未来应该是行动驱动的,一个行动驱动的 LLM 看起来很像 AGI,如下图所示。

模型的行为就像一个智能体 Agent 选择行动。在中间,我们有开箱即用的基础模型 LLM。用户通过 Prompt 询问模型结果。

左边是外部可利用的资源,这些可以是任何将文本作为输入并提供文本作为输出的函数,包括搜索、数据库、代码解释器和与人聊天等,它可以增强模型的能力。

右边是我们有任务导向的训练,如 instruction tuning、RLHF 等。instruction tuning 相对好实现,RLHF 需要调整 PPO 算法相对较难。整体上 RL 利用使用日志等专有数据,通过创建强大的反馈回路,训练模型使其更加符合任务需求并迭代优化。

5 总结与展望

5.1 技术创新:待解决问题和改进

ChatGPT 一个问题是只能回答 2021 年前的问题。模型无法获取近期的知识,将 ChatGPT+webGPT 结合是一个可以想到的方案。DeepMind 提出的 Sparrow 就是一个参考,Sparrow model 针对对话内容模型生成结果并判断是否搜索互联网,以提供更多的正确参考答案,用强化学习算法去优化 Sparrow 的输出结果。整体流程如下图所示:

5.2 技术应用:能否取代搜索引擎

应该不会取代,根据目前体验的效果,距离搜索引擎还有很长的路要走,主要基于几个方面。

首先 ChatGPT 本质是语言模型,当前的训练技术模型不具备或者说很弱的推理能力,一些推理问题比如小学生问题完败。根据当前体验看擅长创作类文案,其他问题经常出现一些事实错误情况。而搜索引擎技术的核心索引、检索和排序是给到用户 Top 相关性内容,用户自主多了一层推理、对比筛选、总结。

其次目前的 ChatGPT 不能够回答 21 年之后的问题,新知识的获取是通过增加标注数据实现。如果要支持获取社会热点新闻等,就需要改变底层技术方案。尽管这个问题 WebGPT、Sparrow 通过搜索引擎解决,能否替代自己就有了答案。

最后就是成本问题,ChatGPT 火的原因之一就是免费体验,之前超大模型 GPT3 收费模式根本没有产生这么大的反响。商业化一直是大模型的痛,模型效果和模型参数成正比。搜索引擎索引、检索、排序的成本和 ChatGPT 这种模型计算成本不在一个量级上。

5.3 未来预期:资本市场怎么看

和负责投资和战略的同学聊,近期都在讨论 AI。AI 赛道无疑是投资界“今年最大的热点之一”。ChatGPT 和今年大火的 AI 绘画都属于泛 AIGC 领域,AIGC 是继 PGC、UGC 后的新内容生产形态。AI 投资人看来,从语音、文字、图像的内容生成都将出现增长,而对话可能是其中最重要的杀手级应用。根据 Gartner 预计,到 2025 年,生成式人工智能将占所有生成数据的 10%,而当前占比小于 1%。

回顾一下 OpenAI,作为 AIGC 顶级技术公司已经做了不少商业化的尝试,通过 API 方式来推动 GPT-3 的技术商业化,将 GPT3 作为一项付费服务来推广。Codex 也是已经商业化的产品。GPT-3 历经两年商业化尝试,如今并未取代记者编辑或码农的职业生涯,OpenAI 也从中发现,将 GPT 系列作为辅助生产力工具对商业化更为合适。此次 ChatGPT 采取免费试用可能是 OpenAI 准备继续打磨这款产品,根据用户的反馈帮助模型改进从而作出更恰当的反应。等产品打磨好可能为 GPT-4 商业化铺路。

2022 年以来 AIGC 应用多点开花,伴随着深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,AIGC 有望加速发展,让人们对通用人工智能有了更多的期待。

参考材料

ChatGPT: Optimizing Language Models for Dialogue

Aligning Language Models to Follow Instructions

WebGPT: Improving the Factual Accuracy of Language Models through Web Browsing

Aligning Language Models to Follow Instructions

Learning from Human Preferences

Proximal Policy Optimization

https://gpt.Chatapi.art/?

Building safer dialogue agents

https://jmcdonnell.substack.com/p/the-near-future-of-ai-is-action-driven

https://mp.weixin.qq.com/s/OO03dHMStOV8tVdRwzEkLA

https://36kr.com/p/2033972476849410

https://easyai.tech/ai-definition/reinforcement-learning/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/238.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

火遍全网的chatGPT

最近网上非常火爆的CHATGPT,它是OpenAI开发的一款开源的自然语言处理 (NLP) 模型,用于实现对话生成和语言模型预测。CHATGPT 模型基于 GPT-3 (Generative Pretrained Transformer 3) 模型构建,拥有语言理解和文本生成能力。CHATGPT 模型可以用…

注册ChatGPT时提示Oops! The email you provided is not supported

问题描述 今天本想出一个ChatGPT的注册与使用的教程,结果上来吃了个闭门羹。之前我通过微软账号登录验证是没有问题的,但这次想使用另一个微软账号,结果提示Oops! The email you provided is not supported(您提供的电子邮件不支…

ChatGPT准备工作_step1_注册邮箱

如何注册Outlook邮箱 访问Outlook网站:在您的网络浏览器中打开 Outlook的官方网站。 点击"创建账户":在Outlook网站的主页上,点击"创建账户"选项,开始注册过程。 填写个人信息:在注册表格中填…

centosAI数据模型

传送:https://ai.centos.chat/ 之前一直公益运营 万万没想到流量比预想的要大很多,API接口的这个Tokens消耗的速度比预想的要快的多。 想持续提供免费服务,目前看只能自己拿真金白银来顶。光靠一点捐助肯定是杯水车薪。 所以有能力的伙伴…

最新ChatGPT网站源码/支持用户注册付费套餐/支持Ai绘画/支持用户会员套餐/邀请分佣功能/支持后台一键更新/网站后台管理/永久更新

前言 ChatGPT 是一个基于 GPT-3.5/GPT-4 模型的对话系统,它主要用于处理自然语言对话。ChatGPT 虽然才发布几天时间,但是就已经火爆全网了。然后陆陆续续已经出现了各式版本,今天介绍的这款源码就是当下最火的ChatGPT且结合计数回答实现的盈…

LLM系列 | 01: 亲测ChatGPT最强竞品Claude,且无需翻墙、注册简单、免手机号

简介 春风桃李花开日,秋雨梧桐叶落时。小伙伴好,我是微信公众号《小窗幽记机器学习》的小编:卖核弹的小女孩。更多、更新文章欢迎关注微信公众号:小窗幽记机器学习。后续会持续整理模型加速、模型部署、模型压缩、LLM、AI艺术等系…

VSCode集成ChatGPT插件:ChatGPT中文版

今天介绍一款牛逼的VsCode插件ChatGPT中文版 一、介绍 ChatGPT中文版一个ChatGPT的插件_支持ChatGPT4.0,功能比丰富。 功能特点: 1.支持ChatGPT4.0 在个人中心可以选择ChatGPT4.0模型,回答更准确 2.网络回答 Vscode插件中第一家支持联网…

ChatGPT有中文版吗?

2023年最热的技术话题是什么?毫无疑问是人工智能,特别是AIGC领域。其中又以ChatGPT为最热门产品。ChatGPT是一个革命性的人工智能产品,能对我们的生产生活产生巨大的影响。然而,有网友担心ChatGPT是西方开发的AI工具,能…

ChatGPT中文网页版带PHP接口源码

☑️ 品牌:ChatGPT ☑️ 语言:PHP ☑️ 类型:ChatGPT ☑️ 支持:PCWAP 🎉有需要的朋友记得关赞评,浏览底部查看!!! 🎉 ✨ 源码介绍 ChatGPT 中文网页版带PHP…

ChatGPT中文客户端

拥有功能👍: ChatGPT在线对话 ChatGPT角色设置,应用功能 Midjourney绘画功能 下载地址: 八九智能助手客户端.zip - 蓝奏云

ChatGPT中文版写日报神器【AI使用技巧】

写日报对于打工人来说是一件枯燥无味又不得不做的工作。有了ChatGPT写日报不再是一件苦差事,分分钟搞掂,你不来试一下吗? ChatGPT中文站https://ai-cn.co提问:我是一名服务端程序员,负责维护商城系统,帮我…

ChatGPT中文版提示词学习手册, 学完工作效率提升百倍!

既然你对ChatGPT及其功能有了⼀些了解,让我们更深入地了解⼀下ChatGPT是什么以及它是如何工作的。 那么ChatGPT是如何工作的呢?在高层次上,这个过程可以分解为以下步骤: 1. 用户将文本输入ChatGPT界面。这可能是一个问题&#xf…

ChatGPT中文版重装上阵

ChatGPT中文版重装上阵 近日,AI模型市场联手OpenAI推出了新版ChatGPT,这是一款面向聊天机器人开发的自然语言处理(NLP)模型。ChatGPT是一款非常强大的NLP模型,可以帮助开发者构建会话式聊天机器人,它可以更…

ChatGPT中文电脑端软件

ChatGPT中文电脑端软件 背景 ChatGPT作为一种基于人工智能技术的自然语言处理工具,近期的热度直接沸腾🌋。 作为一个好奇心很强的人,找到一款好用的中文版的ChatGPT软件,测试很久了,觉得非常好用,很想分…

ChatGPT 中文版插件来了

点击关注公众号:互联网架构师,后台回复 2T获取2TB学习资源! 上一篇:Alibaba开源内网高并发编程手册.pdf 转自 | 机器之心 ChatGPT 的 Debug 功能,有人应用化了。 ChatGPT 这几天可谓是风头无两。作为一个问答语言模型&…

chatgpt中文设置流程

对于ChatGPT来说,中文设置是非常重要的,因为只有正确设置了中文模型,它才能够理解和回答中文输入。下面我将介绍一些在ChatGPT中设置中文的方法。 选择中文预训练模型 首先,你需要选择适合中文场景的预训练模型。目前市面上已经…

ChatGPT中文版写论文神器使用技巧

又到了一年一度的毕业季,写论文成了同学们的头等大事。ChatGPT系当今世上最强的人工智能产品,已经深刻地影响着人们的工作生活学习。ChatGPT也是写论文的神器,能帮助同学们拓宽思路,举一反三,事半功倍。以面给同学们盘…

【ChatGPT中文版来了,这就是你想要的!】

ChatGPT中文版来了,这就是你想要的! 写在前面 最近在逛论坛时,发现一款不错的插件——Vscode ChatGPT。据介绍,这是ChatGPT的中文插件,首次安装插件之后,可以自动启用国内模式,不需要任何操作…

ChatGPT几个有趣的玩法

文章目录 1、开启一个VM2、以……的风格发文3、自动写代码用脚本编写一个多进程ping主机的程序 3、用chatGPT学习loki4、客制化脚本生成一个自动建立软连接的脚本 5、vscode 插件 1、开启一个VM 在caht中输入一下内容 I want you to act as a Linux terminal. I will type co…

chatgpt怎么去玩?解析各种用途和强大的功能

关于chatgpt怎么玩?他的一些原理以及玩法,相信大家都是挺好奇的吧,毕竟这个新的人工智能和以往我们玩过的,是完全不一样的,它具备更多的可玩性,而且具备有一定的学习能力,这就造就了它的强大&am…