ChatGPT 成功背后的技术原因及其对生命科学领域的启发

文章目录

  • 一、前言
  • 二、主要内容
  • 三、总结


一、前言

2023 年 2 月 19 日看见一篇关于 ChatGPT 成功背后的技术原因及其对生命科学领域的启发的思考的优质文章,分享于此。

原文链接:DrugFlow | ChatGPT 成功背后的技术原因及其对生命科学领域的启发

作者:碳硅智慧 CEO 邓亚峰

ChatGPT 是 OpenAI 开发的一个基于文本生成技术的智能对话机器人,以其惊艳的效果迅速出圈,在这个低迷的 2023 年初,凭着一己之力重新掀起了 AI 领域的热潮。


二、主要内容

早在上个世纪五十年代,就有学者提出了人工智能(Artificial Intelligence)的概念,其目标是希望让计算机拥有人类智能(或部分人类智能)。这个领域经过很多年的发展,依然没有突破,直到 2012 年出现了深度学习技术。深度学习主要解决了模型表示能力的瓶颈。我们面对的建模问题,比如图像理解、语言翻译、语音识别、分子 − - 蛋白结合构象预测等技术,都是非常复杂的非线性问题,在深度学习出现之前,模型表示能力很弱,无法对这些复杂问题进行精确表示。而深度学习技术,可以通过模型的层次堆叠,理论上可以构建任意深度的模型,突破了模型表示能力的瓶颈,从而在语音识别、计算机视觉、自然语言理解等领域取得了突破性进展。

深度学习技术的出现标志着人工智能进入到一个新的阶段,我们姑且把 2012 年左右开始的通过深度学习驱动的人工智能浪潮叫作新一代人工智能时代(实际上在语音识别领域深度学习应用可以追溯到最早,但是鉴于后续很多深度学习的进步都来自于计算机视觉领域,所以,我们以 2012 年 AlexNet 出现作为起点)。这个时期,可以认为是深度学习驱动的新一代人工智能的第一个阶段,即标注数据驱动的深度学习模型,大幅提高了模型表示能力,从而推动人工智能技术显著提升,并且在计算机视觉和语音识别领域获得了产品和商业上的成功。这个阶段的主要局限,是非常依赖于标注数据的数量。由于模型参数变多,想要求解这么多的模型参数,需要大量的训练数据作为约束。而想获得大量的标注数据非常贵,到亿级别之后就很难再有提升,数据支撑的有效模型大小也受到限制。2012-2015 年这段时间,计算机视觉是最活跃的领域,出现了包括 ResNet 在内的各种深度网络模型。

2017 年,一个重要的基础工作 Transformer 出现了。2019 年,在一直未能有重大突破的自然语言处理(NLP)领域,一个叫作 BERT 的工作脱颖而出,在十几个不同的自然语言处理领域(NLP)任务中都取得了最好的结果,这些任务之间的差别很大,所以 BERT 工作发表后,马上引起了整个领域的关注。BERT 采用了一个叫作自监督预训练的思路,无需标注数据仅利用文本语料本身存在的约束就可以训练模型(比如某句话的某个位置只能用某些限定的词),这样互联网上存在的优质语料不需要进行人工标定就可以用来做训练,从而一下子使得可用训练数据的数量有了巨大的提高,再配合上大模型,使得 BERT 模型的效果远远超过过去的模型,并且在不同任务间具有很好的通用性,成为 NLP 领域里程碑工作之一。

其实在 BERT 出现之前的 2018 年,还有个工作叫作 GPT(这时是 GPT1.0),更早利用了自监督预训练的思路来做文本生成,即输入前面的文本,模型预测输出后面的文本,领域里面的优质语料无需标注就可以做训练。BERT 和 GPT 都是在 Transformer 基础上发展而来的,而 Transformer 也逐渐发展成为 AI 领域的通用模型。GPT1.0 的效果并不惊艳。在 BERT 出现后不久,GPT 很快发布了 GPT2.0,模型大小和训练数据量都有大幅提升,作为通用模型(即不用下游任务做训练,直接测试结果)在大多数任务上结果好于现有模型。但由于 BERT 模型在特征表示上比 GPT2.0 模型更有优势,也更容易训练,所以这个阶段领域里最受关注的工作还是 BERT。但 2020 年 7 月, GPT3.0 横空出世,以 1700 亿参数惊艳四座,更重要的是,在效果上,GPT3.0 作为一个通用语言模型,只需向它提供一段简单描述,说明想生成的内容,就可以在无需重新训练的情况下,根据提示,生成可执行代码,生成网页或图标,完成一篇文章或新闻,还可以编写诗歌和音乐。GPT3.0 出现后,受到了行业的广泛关注,很多开发者基于 GPT3.0 做了很多好玩的应用。GPT3.0 成为最好也最受关注的文本生成模型。

在自监督预训练技术出现之后,我们可以认为新一代人工智能发展到了第二个阶段,即自监督预训练技术使得可用训练数据有了几个数量级的提升,在训练数据大幅提升的支撑下,模型大小也有了数个数量级的提升(有效模型达到了千亿规模),而在模型效果上,这些模型变得不再依赖于下游任务领域数据的再训练,所以,领域进入到基于自监督预训练的通用大模型时代。

之后,GPT3.0 与领域其他工作一起引发了一波模型大小的军备竞赛,但鲜有真正有突破的技术出现。大家意识到仅仅增加模型大小,并不能根本上解决问题。就在大家期待 GPT4.0 等后续工作出现的时候,整整两年过去,GPT 一直没有更新。这段时间内,人工智能领域最活跃的工作主要集中在两个方面,多模态统一模型和内容生成。多模态统一模型,希望构建多模态或跨模态统一模型,尝试将文本、图像、语音等不同模态数据统一表示在一个模型中,其中包括最早的跨模态表示模型 CLIP,和后续的一系列多模态统一表示模型。而内容生成领域,一方面在技术层面,出现了扩散模型(Diffusion Model)这样的基础模型,Diffusion Model 及一系列变种模型的发展,使得人工智能内容生成(AI Generated Content,即 AIGC)领域变得非常热,从图像生成领域扩展到自然语言处理和生命科学领域;另一方面在应用层面,基于文本生成图像领域取得了很多实质进展,其中最有代表性的工作 DALLE2,模型能够按照输入的文本描述输出看起来很真实的图像,即使在文本描述超越了现实的情况下,依然可以生成看似合理符合文本描述的图像,如下图所示。DALLE2 等一系列工作的成功,一方面归功于大量的文本-图像对应关系数据(大约有数亿对),建模了文本和图像语义之间的对应关系,另外一方面归功于扩散模型克服了 GAN、VAE 等模型难训练、生成效果细节保留不够等缺陷。图像生成效果的惊艳,甚至让很多人相信 AI 已经可以创造内容了。

时间来到了 2022 年 11 月底,OpenAI 发布了 ChatGPT。ChatGPT 发布后,大家发现这个聊天机器人很不一般,经常给出令人惊艳的回答。对话机器人领域曾出现过很多个对话机器人,比如苹果的 Siri,微软的小冰小娜等,这些通用对话系统的体验都不是非常理想,大家拿来调戏一下就扔到了一边。而智能音箱等产品中使用的指令执行式问答机器人,系统框架是基于规则驱动的对话管理系统,存在大量的手工规则,使得这些系统一方面无法扩展到通用领域,只能进行简单程式化的回答,另一方面,无法处理多轮对话的环境语义信息(Context)。从技术层面看,ChatGPT 和原来主流的对话系统完全不同,整个系统基于一个深度生成大模型,对于给定的输入,经过深度模型的处理,直接输出抽象总结性的回答。而在产品体验上,ChatGPT 也远远超越了过去的聊天系统。作为一个通用聊天机器人,它几乎可以回答任何领域的问题,而且准确率已经达到人类愿意持续使用的要求,在多轮对话的场景下依然保持非常好的体验。

当然,ChatGPT 并不完美,作为一个深度学习模型,ChatGPT 存在无法百分之百精准的缺陷,对于一些需要精确回答的问题(比如数学计算、逻辑推理或人名等),会出现一些可感知的明显错误。后面又出现了一些改进工作,比如有些工作会提供信息的参考网页链接,而在 Facebook 最新的工作 ToolFormer 中,则尝试在生成模型中,将特定任务交给特定 API 去计算,不走通用模型,这有望克服模型无法百分之百精准的问题。如果这条路走通,深度生成模型有望成为 AGI 的核心框架,用插件方式集成其他技能 API,想想就很激动人心。

商业上,ChatGPT 一方面引发了对于 Google 等搜索引擎挑战的畅想,另一方面,大家看到了各种自然语言理解有关的垂直产品应用机会。无疑,ChatGPT 在自然语言理解领域正掀起一次可能媲美搜索推荐的新商业机会。ChatGPT 为什么能有这样惊艳的效果?其中一个核心原因是 ChatGPT 基于生成大模型 GPT3.5 构建,这应该是当前自然语言理解领域文本生成最好的模型(GPT3.5 比 GPT3.0 使用了更多的数据和更大的模型,具有更好的效果)。

第二个核心原因则是基于人类反馈的强化学习技术,即 Reinforcement Learning from Human Feedback(简写作 RLHF)。由于 OpenAI 并没有发表 ChatGPT 的论文,也没有代码公开,大家一般认为其与之前的一篇文章 InstructGPT 中批露的技术最为相近。如下图所示,按照 InstructGPT 中的描述,第一步,先收集用户对于同一问题不同答案的偏好数据;第二步,利用这个偏好数据重新训练 GPT 模型,这一步是基于监督信息的精调;第三步,根据用户对于不同答案的偏好,训练一个打分函数,对于 ChatGPT 的答案会给出分数,这个分数会体现出用户对于不同答案的偏好;第四步,用这个打分函数作为强化学习的反馈(Reward)训练强化学习模型,使得 ChatGPT 最终输出的答案更偏向于用户喜欢的答案。通过上述过程,ChatGPT 在 GPT3.5 的基础上,针对用户输入,输出对用户更友好的回答。

ChatGPT 第一阶段训练 GPT 生成模型使用的训练数据量非常大,大约在几十 TB,训练一次模型需要花费千万美元,而第二个阶段,基于强化学习的少量优质数据反馈则只需要数万条优质数据。我们可以看到,ChatGPT 技术,是在自监督预训练大模型基础上结合基于人类反馈的强化学习技术,取得了非常显著的进展。这种新的范式,有可能成为第三阶段人工智能的核心驱动技术,即首先基于自监督预训练的大模型,再结合基于少量优质数据反馈的强化学习技术,形成模型和数据的闭环反馈,获得进一步的技术突破。


三、总结

关于 ChatGPT,我们的观点如下:

  • ChatGPT 确实是这个时代最伟大的工作之一,让我们看到了基于自监督预训练的生成大模型与基于少量优质数据强化学习反馈策略结果后 AI 的惊艳效果,某种意义上改变了我们的认知。
  • ChatGPT 相关技术具有非常大的商业价值,使得搜索引擎在内的很多产品都面临被重构或者颠覆的机会,无疑会带来很多新的商业机会,整个 NLP 领域都会受益。
  • 基于自监督预训练的生成大模型与基于少量优质数据强化学习反馈策略的学习范式,有望成为未来推动各个领域前进的动力,除 NLP 领域外,有望在生命科学、机器人、自动驾驶等各个领域引发新一轮人工智能热潮。
  • ChatGPT 并不能证明人工智能已经有了人类心智,ChatGPT 表现出来的一些创造性和心智,是因为自然语言理解语料中包含了语义、逻辑,基于自然语言语料训练出来的生成模型,统计意义上学习到了这些对应关系,看起来似乎有了智能,但并不是真的有人类心智。ChatGPT 很棒,但说他智力等于几岁小朋友的说法,都不够严谨。因为从根本上讲,人学习新知识、进行逻辑推理、想象、运动反馈这些能力,目前 AI 还没有具备。过度炒作 ChatGPT 的智能和能力,会劣币驱逐良币,损害整个行业。
  • 在这个领域,中国的技术还有差距,过去两年,我们还没有看到真正复制出 GPT3.0 效果的文本生成模型,而没有 GPT3.0 和 3.5,就不会有 ChatGPT。GPT3、GPT3.5 和 ChatGPT 等工作都没有开源,甚至 API 都对中国做了封锁,这都是复制工作实际面临的困难。说得悲观一点,大部分想复制 ChatGPT 效果的团队,都不会成功。
  • ChatGPT 并不是一两个研究人员做出的算法突破,而是在先进理念指导下,非常复杂的算法工程体系创造出来的成果,需要在团队和组织上匹配(类比 OpenAI 和 DeepMind)。纯研究型的团队恐怕不能成功,对深度学习理解不够、太工程化的团队也不会成功。这只团队需要:第一要有足够资源支持,可以支撑昂贵的深度学习训练和人才招聘;第二要有真正在工业界领导过工程化大模型团队的专家领导, ChatGPT 不仅有算法创新,更是工程体系创新;第三,也可能是最重要的,需要一个团结协作有统一领导且不追求论文发表的组织(松散型的组织利于算法创新,但不利于工程化算法攻坚),且配备足够多优秀的工程和算法人才。
  • 我们不仅追求做一个 ChatGPT,更要持续追求其背后的技术创新,即大力发展自监督预训练生成大模型和基于少量优质数据的强化学习反馈策略技术,这既是下一代 ChatGPT 的核心技术,也是推动人工智能领域整体进步的技术。最担心的是,由于投机追风,造成力量分散而使大量资源被浪费,或者过度宣传 ChatGPT 损害了行业。
  • ChatGPT 还存在改进空间,也不是唯一值得关注和期待的技术。对于 AI,最常见的误区是,高估其短期表现,而低估其长期表现。这是一个 AI 成为核心推动力的伟大时代,但 AI 并不会那么快就无所不能,需要我们长期努力。

这里,我们也简单总结一下 2012 年以来深度学习引起的新一代人工智能浪潮里面的关键技术演进:

  • 第一个阶段,关键进展是标记数据驱动的有监督深度学习模型,大幅提高了模型表示能力,从而推动人工智能技术显著进步,这个阶段最活跃的是计算机视觉和语音识别领域,主要的局限是有标记数据比较贵,限制了可以获得的数据量,进而限制了数据能支撑的有效模型大小。
  • 第二个阶段,关键进展是自监督预训练大数据驱动的通用大模型,自监督预训练技术使得可用训练数据有了几个数量级的提升,从而支撑着模型大小也有了数个数量级的提高,成为无需依赖下游任务领域数据再训练的通用模型,这个阶段进步最大、最活跃的是自然语言理解领域;主要的局限在于需要海量数据训练,且模型非常大,训练和使用都非常昂贵,重新训练垂直场景模型也非常不方便。
  • 第三个阶段,目前虽然还不能盖棺论定,但呈现出一定趋势。未来非常重要的技术关键在于,能否在大模型的基础上,用强化学习、 Prompting 等方式,仅通过少量优质数据就能显著影响大模型的输出结果。如果这个技术走通,那么无人驾驶、机器人以及生命科学等数据获取昂贵的领域将显著受益。过去,如果想改善 AI 模型存在的问题,必须采集大量的数据重新训练模型。假如,在需要线下交互的机器人领域,在预训练大模型的基础上,仅通过告知机器人真实场景中一些正确和错误的动作选择就能影响机器人的决策,那么无人驾驶和机器人领域在技术迭代上会更加高效。生命科学领域,如果仅通过少量的试验数据反馈,就能显著影响模型预测结果的话,整个生命科学领域与计算融合的革命将会来得更快一些。在这一点上,ChatGPT 是非常重要的里程碑,相信后面还会有非常多的工作出现。

让我们把目光回到我们更关注的生命科学领域

  • 由于 ChatGPT 带来的技术进步改善了大多数 NLP 相关领域,所以,生命科学领域内和信息查询检索抽取有关的技术和产品,会优先受益。例如,在未来有没有可能出现一个生命科学领域对话方式的垂直搜索引擎,专家可以向它询问任何问题(比如关于疾病、靶点、蛋白等有关的问题),它一方面可以给出综合趋势的判定(也许没有那么精确,但大概正确,有助于我们快速了解一个领域),另一方面可以给出关于某个话题的相关有价值资料,这无疑会显著改善专家的信息处理效率。还例如,能否构建一个 AI 医生,病人可以咨询有关疾病的知识和处理办法(限于技术的局限,AI 无法给出精确的答案,更无法代替医生),但可以给出很多信息参考和后续该做什么的建议,其体验一定会显著优于现在的搜索引擎。
  • 生命科学领域本身还存在很多没有被解决的重要任务,比如小分子 − - 蛋白结合构象和亲和力预测、蛋白 − - 蛋白相互作用预测、小分子表示和性质预测、蛋白质性质预测、小分子生成、蛋白质设计、逆合成路线设计等任务。目前看这些问题还没有被完美解决,如果在这些任务上取得突破,那么药物发现甚至整个生命科学领域,都会迎来巨大变化。
  • 基于大模型的 AIGC 领域,以及基于专家或试验反馈的 RLHF 领域,受益于 ChatGPT 的推动,一定会引来一轮新的技术进步。

其中 AIGC(人工智能内容生成)技术,在过去一年中,已经在小分子生成、蛋白质设计等领域取得了不错的进展。我们预测,在不远的未来,下列任务将显著受益于 AIGC 生成技术的发展,产生技术阶跃:

  • 小分子生成和优化技术,即如何不依赖活性配体信息,而是基于蛋白口袋结构信息生成综合考虑活性、成药性、可合成性等多种条件约束的配体小分子,这部分技术将显著受益于 AIGC 领域的发展;
  • 构象预测某种意义上可以看作是生成问题,小分子和蛋白结合构象预测任务也会受益于 AIGC 相关技术的发展;
  • 蛋白质、多肽、AAV 等序列设计领域,也一定会受益于 AIGC 技术的发展。

上述 AIGC 相关任务,以及几乎所有需要试验验证反馈的任务,包括但不限于活性预测、性质预测、合成路线设计等,都将有机会受益于 RLHF 技术带来的红利,当然也存在很多挑战。受限于可用数据数量,当前生命科学领域使用的生成模型还比较浅,主要使用的是 GNN 等浅层深度学习模型(GNN 受限于消息传递的平滑性,层数只能使用到 3 层左右),生成效果上虽然体现了很好的潜力,但依然没有 ChatGPT 那样惊艳。

而基于专家知识或试验反馈的强化学习技术,受限于试验数据产生速度以及生成模型表示能力不够的影响,惊艳效果呈现也会需要一定的时间。但从 ChatGPT 技术演进趋势推演,如果能训练足够深、表示能力足够强的生成大模型,并且利用强化学习,基于少量优质试验数据或者专家反馈来进一步提升生成大模型的效果,我们可以预期 AIDD 领域(人工智能辅助药物发现,AI Drug Design)一定会迎来一次革命。

简而言之,ChatGPT 不仅是自然语言理解领域的一项技术进步,会引发新一轮信息服务和内容生成领域的商业潮流,同时,其背后基于海量数据的深度生成技术,以及基于人类反馈的强化学习技术,是更长远的进步动力,会促进生命科学等领域的长足发展。我们会再迎来一次 AI 技术进步和产业落地的浪潮。


参考链接:

  • DrugFlow | ChatGPT 成功背后的技术原因及其对生命科学领域的启发
  • 碳硅智慧 CarbonSilicon AI | 人工智能赋能新药发现
  • DrugFlow | AI 驱动的新药发现 SaaS 平台
  • InstructGPT 论文 | Training language models to follow instructions with human feedback

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/7847.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

当 ChatGPT 热度不再,下一个 AI 寒冬会来到吗?

ChatGPT 的出现,显然掀起了 AI 发展的新一轮热潮,但人们是否设想过:未来狂欢散场,是否意味着下一个 AI 寒冬即将到来? 原文链接:https://www.erichgrunewald.com/posts/the-prospect-of-an-ai-winter/ 未经…

商汤给元宇宙理了理“三观”

杨净 发自 凹非寺量子位 | 公众号 QbitAI 元宇宙,正在野蛮生长,比以往任何时候更甚。 一面是持续看好的市场表现。据麦肯锡数据显示,今年上半年有超过1200亿美元投向元宇宙,已是去年570亿美元投资额的两倍多。 而DIffusion、ChatG…

全栈深度学习工程师之路(一)为什么要学深度学习及全栈

文章目录 前言为什么要学深度学习以及为什么要了解深度学习的全栈知识 人工智能的发展过程学术界和工业界的区别学术界工业界 专栏的范围 前言 为什么要学深度学习以及为什么要了解深度学习的全栈知识 机器学习是一门人工智能的分支,它研究如何让计算机从数据中学习…

罗永浩进场之后,苹果入局之前:XR又寒冬了吗?

科技圈的悲欢并不相通。 ChatGPT狂飙之际,XR领域正在迎来至暗时刻。 岁末年初,就在罗永浩重返高科技创业,计划进军XR(扩展现实)类领域的时间段前后,接连出现了押注元宇宙的Meta裁员,Meta旗下VR工作室Ready …

chatgpt赋能python:基于PythonSOM的数据挖掘技术

基于Python SOM的数据挖掘技术 在数据挖掘领域中,SOM(Self-Organizing Map,自组织映射)作为一种非监督学习算法,被广泛应用于数据聚类、分类、可视化等方面。本文将介绍基于Python SOM的数据挖掘技术及其在SEO上的应用…

超越ChatGpt,最近爆火的AutoGPT 究竟是什么

一、AutoGPT是什么 最近几天,一款基于GPT-4的最强语言模型AutoGPT火遍了整个AI圈。众所周知,此前爆火AI圈的ChatGPT,唯一不太好用的地方就是需要人类不断的prompt。因此,如果你想要ChatGPT帮你去做一件复杂的事情,那么…

【EmailCamel外贸邮件群发】日发万封外贸开发信,不影响企业邮箱!

有不少客户咨询说企业邮箱不能给gmail发信了,不能给某某客户发信了,经过交流,原来用企业邮箱大量群发开发信了,企业邮箱被封!“邮件到达收件箱系列文章14:用企业邮箱群发开发信,企业邮箱被封&am…

外贸用什么邮箱好,如何选择一个好用的外贸企业邮箱

外贸公司主要通过邮件与客户沟通,但外贸邮件分为两种,正常沟通业务推荐用企业邮箱,国外客户对企业邮箱更加认可。而外贸公司还会用邮件来开发客户,开发的话可以用专门的群发邮件软件工具。今天小编主要说一下如何挑选一个好用的外…

外贸众多外贸公司选择TOM会员邮箱?

VIP邮箱作为商务用途,一直受到企业的广泛应用,通常VIP邮箱会用作中小型企业的官方对外联系入口。为什么商务外贸企业会选择VIP邮箱呢?小编根据邮箱的使用体验,从安全性、便捷性及功能性来做个比较。 一、 安全性高 VIP邮箱具有银…

国外邮件营销推荐

国外邮件营销推荐什么邮箱呢?对于外贸行业来说,国外邮件收发是跟国外客户沟通的主要方式,所以我们一般都会用到邮箱,那哪个邮箱适合国外邮件收发呢? 我之前用过免费邮箱,国外邮件发送时很容易当成垃圾邮件…

外贸企业邮箱,选择海外群发邮件稳定的邮箱

全球化进程的推进,企业加大了海外市场的拓展,电子邮件就成为了首要的沟通工具。TOM企业邮箱,20多年的国际服务经验,从群发邮件、国外邮件稳定性上,推出了一系列的解决方案,为企业带来了极速高效的海外邮件收…

外贸客户邮箱用什么?外贸哪个邮箱好?

许多人在做外贸业务时,可能会遇到被客户拒绝,其实,这不一定是自己业务水平不够,也许是自己的邮箱账号拖累了自己。有的人喜欢用私人邮箱做外贸业务,但是大部分的外贸商家,都觉得私人邮箱是不够正式的。试想…

群发外贸邮箱哪个好?外贸人的邮箱选择?

上学的时候老师说,凡事预则立,不预则废。准备好自己才可以自如的应对任何突发状况。身边就有朋友做到了这一条,朋友近两年顶着疫情下的市场巨压从旅游行业转行到外贸行业,自己前期调研参考摸索大半年,终于1年后效益翻几…

ChatGPT专业应用:生成外贸询盘邮件

正文共 897 字,阅读大约需要 8 分钟 外贸必备技巧,您将在8分钟后获得以下超能力: 生成外贸询盘邮件 Beezy评级 :A级 *经过寻找和一段时间的学习,一部分人能掌握。主要提升效率并增强自身技能。 推荐人 | Kim 编辑者 | …

AI真的快让我失业了

ETest 2023-03-29 18:03 发表于北京 以下文章来源于深燃 ,作者深燃团队 正在上传…重新上传取消 深燃. 聚焦创新经济,专注深度内容。 来源:深燃(ID:shenrancaijing) 作者:邹帅 李秋涵 王敏…

想做外贸却没有头绪?来看看这篇文章

海关总署公布最新数据:今年前4个月,我国外贸进出口总值13.32万亿元,同比增长5.8%,其中出口7.67万亿元,同比增长10.6%;进口5.65万亿元,同比增长0.02%。月度调查显示,出口订单增加的企…

2022年度软件质量保障行业调查报告

2023年已经到了第2个月,大家OKR定好了吗?对目前工作满意吗?过去三年是否换过工作,所在的公司2022年有哪些重大变化,通过问卷结果,让我们看看测试同行们过去一年的经历,以及测试领域的变化。 软…

让chatGPT回答3个网工相关问题,结果亮了

晚上好,我是老杨。 最近一打开朋友圈,都是很多技术同行在和ChatGPT对话。 从一开始的玩票心态,到后来的正襟危坐,再到现在的群体恐慌,ChatGPT属实是最近行业内的热议话题。 老杨也和ChatGPT对话了一下,挺…

基于Android与多媒体的英文学习APP的设计

毕业设计(论文)任务书 第1页 毕业设计(论文)题目:基于Android与多媒体技术的英文学习APP的设计与实现设计(论文)要求及原始数据(资料):1.综述国内…

小狐狸ChatGPT创作系统如何添加AI文本创作自定义模型,自定义模型方法

后台根据自己的定位选建好类别管理 具体模型文档参照如下对应修改或新增,格式 :模型标题+描述+模型内容+提示文字 模型标题描述模型内容提示文字写一篇文章用你喜欢的语言写一篇关于任何主题的文章用[TARGETLANGGE]写一篇关于[PROMPT]的文章输入文章的主题,然后按发送键按…