【自然语言处理】【ChatGPT系列】ChatGPT的智能来自哪里?

相关博客
【自然语言处理】【大模型】PaLM:基于Pathways的大语言模型
【自然语言处理】【chatGPT系列】大语言模型可以自我改进
【自然语言处理】【ChatGPT系列】WebGPT:基于人类反馈的浏览器辅助问答
【自然语言处理】【ChatGPT系列】FLAN:微调语言模型是Zero-Shot学习器
【自然语言处理】【ChatGPT系列】ChatGPT的智能来自哪里?
【自然语言处理】【ChatGPT系列】Chain of Thought:从大模型中引导出推理能力
【自然语言处理】【ChatGPT系列】InstructGPT:遵循人类反馈指令来训练语言模型
【自然语言处理】【ChatGPT系列】大模型的涌现能力

ChatGPT \text{ChatGPT} ChatGPT火了!作为开放域对话系统, ChatGPT \text{ChatGPT} ChatGPT展示出了出乎意料的智能。在人们惊讶 ChatGPT \text{ChatGPT} ChatGPT效果的同时,其"胡编乱造"的结果也让人担忧。

ChatGPT \text{ChatGPT} ChatGPT到底"只是"一个闲聊系统,还是意味着新的变革?如果只从使用者的角度分析,显然无法回答这个问题。不妨从"技术"的角度看看, ChatGPT \text{ChatGPT} ChatGPT到底是现有技术的极限还是新技术的起点?

一、 InstructGPT \text{InstructGPT} InstructGPT

请添加图片描述

chatGPT \text{chatGPT} chatGPT OpenAI \text{OpenAI} OpenAI开发的开发域对话系统,目标还没有论文。但是根据官方的说法,其基本原理同 OpenAI \text{OpenAI} OpenAI今年早些时候的 InstructGPT \text{InstructGPT} InstructGPT。所以,这里先简单对 InstructGPT \text{InstructGPT} InstructGPT的原理进行简单的介绍。

1. 目的

​ 训练大语言模型 (Large Language Model,LLM) \text{(Large Language Model,LLM)} (Large Language Model,LLM)通常是用上下文来预测部分token,而在使用 LLM \text{LLM} LLM时却希望其能够生成诚实的、无毒性的且对用户有帮助的内容。显然,语言模型并没有与用户的意图对齐。 InstructGPT \text{InstructGPT} InstructGPT的目标是通过人类的反馈微调语言模型,令语言模型与用户意图对齐。(通过基于人类反馈的强化学习,引导出大模型的能力)。

2. 方法

2.1 步骤1: prompt \text{prompt} prompt微调

​ 该步骤中需要人工先标注一个 prompt \text{prompt} prompt数据集。简单来说, prompt \text{prompt} prompt数据集中的单个样本是由一对文本组成,例如:
Prompt: 使用自然语言处理造一个句子。 Demonstration:自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。 \begin{aligned} &\text{Prompt: 使用自然语言处理造一个句子。} \\ &\text{Demonstration:自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。} \end{aligned} Prompt: 使用自然语言处理造一个句子。Demonstration:自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。
使用 prompt \text{prompt} prompt数据集以监督学习的方式来微调 GPT-3 \text{GPT-3} GPT-3

2.2 步骤2:训练奖励模型 (Reward modeling,RM) \text{(Reward modeling,RM)} (Reward modeling,RM)

​ 该步骤会先收集比较数据。如果了解 Learning to rank \text{Learning to rank} Learning to rank的话,比较数据就是一个排序的数据。具体来说,标注员需要模型针对同一输入的不同输出进行排序。举例来说,
Prompt: 使用自然语言处理造一个句子。 Demonstration1:自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。 Demonstration2:自然语言处理是一个名词。 \begin{aligned} &\text{Prompt: 使用自然语言处理造一个句子。} \\ &\text{Demonstration1:自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。} \\ &\text{Demonstration2:自然语言处理是一个名词。} \end{aligned} Prompt: 使用自然语言处理造一个句子。Demonstration1:自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。Demonstration2:自然语言处理是一个名词。
在上面的例子中,模型生成了 Demonstration1 \text{Demonstration1} Demonstration1 Demonstration2 \text{Demonstration2} Demonstration2。显然,标注人员需要标注 Demonstration1 \text{Demonstration1} Demonstration1相较于 Demonstration2 \text{Demonstration2} Demonstration2更好。

​ 奖励模型将 prompt \text{prompt} prompt和模型生成的结果作为输入,然后输出一个标量的奖励值。具体来说,对于单个输入会将模型的 K K K个输出交给标注者进行排序 。这 K K K个答案共有 ( k 2 ) \begin{pmatrix}k \\ 2\end{pmatrix} (k2)个两两比较。举例来说,通过最大化更喜欢的样本 y w y_w yw和没那么喜欢样本 y l y_l yl的奖励值差进行训练
loss ( θ ) = − 1 ( k 2 ) E ( x , y w , y l ) ∼ D [ log ⁡ ( σ ( r θ ( x , y w ) − r θ ( x , y l ) ) ) ] \text{loss}(\theta)=-\frac{1}{\begin{pmatrix}k \\ 2\end{pmatrix}}E_{(x,y_w,y_l)\sim D}[\log(\sigma(r_\theta(x,y_w)-r_\theta(x,y_l)))] loss(θ)=(k2)1E(x,yw,yl)D[log(σ(rθ(x,yw)rθ(x,yl)))]
其中 r θ ( x , y ) r_\theta(x,y) rθ(x,y)表示对于 prompt x \text{prompt x} prompt x和模型生成结果 y y y作为输入,奖励模型输出的奖励值; y w , y l y_w,y_l yw,yl是模型生成的输出,标注者认为 y w y_w yw y l y_l yl更受欢迎; D D D是整个比较数据集。

2.3 步骤3:强化学习

​ 前两个步骤分别会得到微调好的 GPT-3 \text{GPT-3} GPT-3和一个奖励模型。但是,如何将这两个模型和人类组合到一个动态的环境中,然后逐步利用人类的反馈来优化这个循环?这里使用了强化学习方法 PPO \text{PPO} PPO

3. 分析

​ 总的来说, InstructGPT \text{InstructGPT} InstructGPT可以总结为三部分:1. 微调的预训练语言模型;2. 结果排序模型; 3. 强化学习将人和模型统一至动态的环境。预训练语言模型的微调是 NLP \text{NLP} NLP中常见的技术,结果排序模型在推荐、搜索、问答等场景中也很常见。基于人类反馈的强化学习虽然不常见,但根本是将人加入到强化学习环境中。

​ 基于人类反馈的强化学习,构建了一个动态反馈的系统,能够使 InstructGPT(chatGPT) \text{InstructGPT(chatGPT)} InstructGPT(chatGPT)随着人类的反馈逐步改善。但是使用过 chatGPT \text{chatGPT} chatGPT都知道,其表现出的智能远远不是上面三部分能够体现出来的。

chatGPT \text{chatGPT} chatGPT所表现出的智能到底来自哪里?答案是大模型的涌现能力。

二、大模型的涌现能力

​ 自然语言处理从业者都使用过 BERT \text{BERT} BERT这样的预训练语言模型,虽然其能为广泛的下游任务带来效果的提升,但是使用这样的模型不太能够构建出 chatGPT \text{chatGPT} chatGPT那样的智能对话系统(包括对话、代码、逻辑推理能力)。那么完全没使用更加新的技术,只是在模型规模和使用数据量上高多个数量级的 GPT-3 \text{GPT-3} GPT-3就能实现吗?答案是肯定的。

​ 来自Google的文章 《Emergent Abilities of Large Language Models》 《\text{Emergent Abilities of Large Language Models}》 Emergent Abilities of Large Language Models系统的说明了这一点。该文章的核心简单来说就是,
量变带来质变,大模型与小模型不是一个物种。 \text{量变带来质变,大模型与小模型不是一个物种。} 量变带来质变,大模型与小模型不是一个物种。
​ 该文章通过实验说明了大模型中的一种"涌现"的现象。

1. few-shot \text{few-shot} few-shot能力的涌现

请添加图片描述

​ 简单来说,上面8个图的横坐标是模型的规模(参数量或者训练量),纵坐标是各类任务上的效果。观察这8个任务,都具有同一种模式:模型规模在小于某个阈值之前,效果基本等于随机;当超过该阈值后,模型效果有一个飞跃。

​ 上图(A)表示一个3位数加减法和2位数乘法的任务,模型 GPT-3 \text{GPT-3} GPT-3在达到 13B \text{13B} 13B参数量时突然具有了算术的能力。

​ 上图(E)是一个衡量模型诚实回答问题的基准 TruthfulQA \text{TruthfulQA} TruthfulQA,模型 Gopher \text{Gopher} Gopher在达到 280B \text{280B} 280B时突然有了高于随机的效果。

2. 技术的涌现

若一项 prompt \text{prompt} prompt技术在小模型上没有效果,但是在模型达到某个规模后突然有效,则该技术是一种涌现能力。

请添加图片描述

​ 上图是4种技术的涌现。以上图(A)为例,其是一个数学应用题的基准,需要模型 chain of thought \text{chain of thought} chain of thought实现多步推理能力才能在该基准上实现好的效果。可以看到,当模型达到 ∼ 100B \sim\text{100B} 100B时, chain of thought \text{chain of thought} chain of thought技术突然开始有效,并能够在数学应用题上实现好的效果。

3. 智能的来源:模型规模

​ 显然 chatGPT \text{chatGPT} chatGPT智能的来源是大模型的涌现能力。不妨畅想一下:

  • 目前 chatGPT \text{chatGPT} chatGPT的缺点也许会随着模型在参数量、训练数据量的进一步扩大下得以解决;
  • 随着预训练技术和模型结构的改进,也许在更小的模型上能够实现相同的效果;
  • 范式"大数据+大模型+无监督预训练=涌现能力"不只是能够运用到语言上,在其他领域也许能够带来意想不到的效果;

三、引导大模型智能的技术

OpenAI \text{OpenAI} OpenAI在2020年就已经发布了 GPT-3 \text{GPT-3} GPT-3,而 ChatGPT \text{ChatGPT} ChatGPT则是在2022年底才发布。**既然研究表明大模型具有各种涌现的能力,那么为何两者发布时间相差2年多?答案是引导大模型智能的技术。**这里简单介绍一下赋予大模型推理能力的 chain of thought \text{chain of thought} chain of thought技术,以及为大模型带来 zero-shot \text{zero-shot} zero-shot能力的 instruction tuning \text{instruction tuning} instruction tuning技术。通过理解这两项技术,能够更好的理解 ChatGPT \text{ChatGPT} ChatGPT的智能来源于大模型。

1. 引导推理能力: chain of thought \text{chain of thought} chain of thought

​ 这里介绍一种赋予大模型多步推理的技术 chain of thought \text{chain of thought} chain of thought,该技术很好的展示了大模型的神奇之处。这里用一句话总结该技术,
通过例子告诉模型做应用题要写步骤,而不是直接给答案。 \text{通过例子告诉模型做应用题要写步骤,而不是直接给答案。} 通过例子告诉模型做应用题要写步骤,而不是直接给答案。
详细细节见《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》。

单纯增加语言模型的规模并不能使其在算术、常识推理和符号推理表现的更好。

​ 下面是一个标准的 prompt \text{prompt} prompt
prompt: Jane有12朵花,2朵给妈妈,3朵给爸爸,那么她还有多少朵? answer: Jane还有7朵花 \begin{aligned} &\text{prompt: Jane有12朵花,2朵给妈妈,3朵给爸爸,那么她还有多少朵?} \\ &\text{answer: Jane还有7朵花} \end{aligned} prompt: Jane12朵花,2朵给妈妈,3朵给爸爸,那么她还有多少朵?answer: Jane还有7朵花
通过上面的 prompt \text{prompt} prompt进行 few-shot learning \text{few-shot learning} few-shot learning,模型在数学应用题上的表现很差

​ 下面是一个 chain of thought \text{chain of thought} chain of thought
prompt: Jane有12朵花,2朵给妈妈,3朵给爸爸,那么她还有多少朵? answer: Jane将2朵花送给她妈妈后还剩10朵...然后再送给她爸爸3朵后还有7朵...所以答案是7 \begin{aligned} &\text{prompt: Jane有12朵花,2朵给妈妈,3朵给爸爸,那么她还有多少朵?} \\ &\text{answer: Jane将2朵花送给她妈妈后还剩10朵...然后再送给她爸爸3朵后还有7朵...所以答案是7} \end{aligned} prompt: Jane12朵花,2朵给妈妈,3朵给爸爸,那么她还有多少朵?answer: Jane2朵花送给她妈妈后还剩10...然后再送给她爸爸3朵后还有7...所以答案是7
通过 chain of thought prompt \text{chain of thought prompt} chain of thought prompt进行 few-shot learning \text{few-shot learning} few-shot learning后,模型的效果显著提高。

直观的来说,让模型别瞎猜答案,把步骤写上再写答案。

2. 引导 zero-shot \text{zero-shot} zero-shot能力: instruction tuning \text{instruction tuning} instruction tuning

​ 文章 《Finetuned Language Models are Zero-shot Learners》 \text{《Finetuned Language Models are Zero-shot Learners》} Finetuned Language Models are Zero-shot Learners中介绍了一种微调大模型的方法: instruction tuning \text{instruction tuning} instruction tuning。在介绍 instruction tuning \text{instruction tuning} instruction tuning之前,先了看看自然语言推理任务 (Natural language inference,NLI) \text{(Natural language inference,NLI)} (Natural language inference,NLI)的通常做法。

​ 自然语言推理任务是判断两个句子在语义是否为蕴含 (Entailment) \text{(Entailment)} (Entailment)、矛盾 (Contradiction) \text{(Contradiction)} (Contradiction)或者中立 (Neutral) \text{(Neutral)} (Neutral)三种关系的一种。例如:
Premise: 多名男子正在踢足球。 Hypothesis:一些男子正在做运动。 \begin{aligned} &\text{Premise: 多名男子正在踢足球。} \\ &\text{Hypothesis:一些男子正在做运动。} \\ \end{aligned} Premise: 多名男子正在踢足球。Hypothesis:一些男子正在做运动。
显然, Premise \text{Premise} Premise蕴含 Hypothesis \text{Hypothesis} Hypothesis。一种常见的做法是将该任务转换为"句子对分类任务",分类的标签就是三种关系。下面是一个示例图:

请添加图片描述

将两个句子拼接起来送入语言模型,然后对该句子对进行三分类。

​ 下面来看自然语言推理任务上使用 instruction tuning \text{instruction tuning} instruction tuning的方式。将 Premise \text{Premise} Premise Hypothesis \text{Hypothesis} Hypothesis按某个自然语言的模板进行组装,并得到样本
多名男子正在踢足球。 基于上面的段落,是否可以得出结论: 一些男子正在做运动。 选项:是、否 \begin{aligned} &\text{多名男子正在踢足球。} \\ &\text{基于上面的段落,是否可以得出结论:} \\ &\text{一些男子正在做运动。} \\ &\text{选项:是、否} \end{aligned} 多名男子正在踢足球。基于上面的段落,是否可以得出结论:一些男子正在做运动。选项:是、否
将上面这段文本送入大模型,并使用监督的方式进行微调。这就是所谓的 instruction tuning \text{instruction tuning} instruction tuning

​ 具体来说,论文中将12类任务的62个数据集按照上面的方式转换,然后微调大模型。最终的实验结果是:通过上面的 instruction tuning \text{instruction tuning} instruction tuning的大模型,能够在完全未见过类型的任务上取得好的效果。

通过 instruction tuning \text{instruction tuning} instruction tuning的介绍可以更好的理解为什么 ChatGPT \text{ChatGPT} ChatGPT能够完成各种各样的任务。

四、漫谈

​ 以下仅是个人的看法。

1. 对现有 NLP \text{NLP} NLP的影响

​ 现有 NLP \text{NLP} NLP技术的主要困境仍然是标注成本,这个成本可以从两个方面来看:人力成本和时间成本。对于特定的场景,通常需要几千甚至上万的数据才能达到很好的效果。当然,如果能够明确的知道标注多少样本就能够达到预期的效果,通常项目也可以经过人力成本评估后确定是否继续。但是,真正影响 NLP \text{NLP} NLP技术落地的是时间成本,即经过一段时间的标注后可能效果无法达到预期,那么项目可能面临推迟或者终止的风险。

​ 大模型将会改变这一现状。大模型具有 few-shot \text{few-shot} few-shot能力,并且能够通过 instruction tuning \text{instruction tuning} instruction tuning获得 zero-shot \text{zero-shot} zero-shot的能力。因此,大模型可以仅使用少量的样本就能够在指定任务上达到非常好的效果,也将极大的降低人力成本和时间成本。但是,大模型的推理速度和推理成本是阻碍其广泛应用的主要问题,并且近期可能都无法将其小型化至合理的范围。所以,大模型很可能作为一个"超级教师模型"。经过少量标注样本微调后,大模型可以自动产生高质量的标注样本,然后使用这些样本来微调小模型。

​ 一种可能的发展路径是:(1) 少量样本微调大模型;(2) 大模型产生大量标注数据;(3) 通过标注数据将大模型的知识蒸馏至小模型。通过这条路径,将会为 NLP \text{NLP} NLP技术在各类项目和产品中的落地提供极大的支持。

2. 下一步的方向

​ 柏拉图在《理想国》中提到了"洞穴寓言",大意是:

有一群囚徒被困在地下洞穴里,他们手、脚和脖子都被拷住,无法动弹,只能看到面前的墙壁。这些人的背后有一堆火,外界的所有事物都是通过墙壁上的阴影展示给这些囚徒。那么这些囚徒只能通过阴影来观察和想想真实的世界。

​ 自然语言也是真实世界的"阴影",或者说自然语言是高维真实世界的低维表示。显然,通过自然语言这些低维信息来学习高维真实世界是存在信息丢失的。举例来说,语言描述苹果可能是"红的"、“圆的”,而真实的苹果并不是严格的“圆”且颜色也不是严格的"红",而是有着自己的纹理。所以,通过将视觉、声音等多个模态结合可能会带来更加智能的模型。

​ 另一方面,现有模型更多的是"被动的"接收信息并作出应答,而且无法通过与周围进行交互来获得更多的知识,从而提高本身的"智能"。 OpenAI \text{OpenAI} OpenAI提出的 WebGPT \text{WebGPT} WebGPT InstructGPT \text{InstructGPT} InstructGPT ChatGPT \text{ChatGPT} ChatGPT都是尝试让模型与环境进行交互,从而提高模型的"智能"。相信随着多模态大模型的发展,模型与环境的交互方式也会越来越多样(例如:通过视觉传感器进行交互),展示出来的"智能"也会越来越强大。

3. 超越语言模型

ChatGPT \text{ChatGPT} ChatGPT的“智能”主要来源于范式:“大数据+大模型+无监督预训练=涌现能力”。但这个范式并不是必须局限于语言,在任何存在大量数据的领域,通过设计合适的无监督预训练方式都可能会带来质的改变。因此,大模型的技术在不久的将来可能会对 AI for Science \text{AI for Science} AI for Science、自动驾驶等领域带来巨大的改变。

4. 局限性

ChatGPT \text{ChatGPT} ChatGPT一个最为人诟病的缺点是:你无法确信它给的答案是正确的。也就是说, ChatGPT \text{ChatGPT} ChatGPT可能是胡编乱造的。但是, OpenAI \text{OpenAI} OpenAI的另一个工作 WebGPT \text{WebGPT} WebGPT则是尝试让模型自己浏览网页,并将浏览的结果合成最终的答案。显然, WebGPT \text{WebGPT} WebGPT生成的答案是有依据的,那么真实性也就更高。论文《Large Language Models Can Self-Improve》中证明了大模型不需要标注样本就可以通过自己生成的样本完成性能的提升。

​ 那么一个可能改善 ChatGPT \text{ChatGPT} ChatGPT的方法是:使用 WebGPT \text{WebGPT} WebGPT作为真实性的评估模型或者指导模型,通过 WebGPT \text{WebGPT} WebGPT ChatGPT \text{ChatGPT} ChatGPT之间的交互来改善 ChatGPT \text{ChatGPT} ChatGPT的真实性问题。也就是,两个模型通过相互博弈来不断改进。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/6829.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT 类大语言模型为什么会带来“神奇”的涌现能力?

作者 | 张俊林 责编 | 王子彧 出品 | CSDN(ID:CSDNnews) 如今,大语言模型已经彻底改变了自然语言处理 (NLP)的研发现状。众所周知,增加语言模型的规模能够为一系列下游 NLP 任务带来更好的任务效果,当…

抖音seo源码/源代码搭建/源代码部署打包-支持二开

1. 抖音seo源码/源代码搭建/源代码部署打包-支持二开 抖音SEO是指通过提高在抖音平台的关键词排名,来获取流量、获取客户的目的。抖音的流量主要分为付费流量、推荐流量和搜索流量,其中搜索流量因为付费太贵、上热门太累而成为另一种进入方式。与传统搜…

【AI大事件】谷歌AI教父Hinton离职!深探AI风险与挑战,共赴智能科技新征程!

近日,整个科技圈再次惊掉了下巴!深度学习泰斗、神经网络之父、图灵奖得主 Hinton 突然宣布离职谷歌。 Hinton,他可是 AI 的教父啊,而他的学生就是发明了GPT 的首席科学家。 他的这一举动,引发了整个科技行业的关注和讨…

一个人如何做抖音矩阵

随着抖音发展的越来越成熟,不少企业、公司都开始在抖音上发力。但由于人员不够迟迟没有开始布局抖音矩阵,今天小编就来和大家聊一聊一个人怎么做抖音矩阵! 一个人做抖音矩阵其实也非常简单,只需要借助矩阵管理系统即可 很多小伙伴…

好消息,发现一款知网学术不端论文检测查重助手,永久免费分享给大家使用

今天Aliwen要为大家带来一款神器是,知网学术不端论文检测查重助手 v1.5。基本上每个高校都会对学生的毕业论文进行论文查重检测,一方面可以避免论文抄袭,另一方面可以端正同学们的写作态度,让学术氛围更加公正、公平。 点击添加图…

知网查重学术不端文献检测系统查不查公式和图表文字

知网查重学术不端文献检测系统查不查公式和图表文字 记录博文 知网查重学术不端文献检测系统升级到5.3版本 一些说明 查不查公式么? 查。特殊符号转换大多数不出,公式转化率较低,数字可以转化出,文字基本 100 % 转化出。查不查…

免费下论文及查重投稿的10来个方法

目录 免费下载1.超星期刊2.库问搜索3. 全国图书馆参考咨询联盟4.百度学术5.爱学术6.谷歌学术7.OA图书馆8.Idata9.中国国家图书馆10.湖南图书馆——白嫖知网,强烈推荐 免费查重1.百度学术2.超星尔雅3.……待续…… 论文发表 眨眼间就快毕业了,是时候准备写…

20190312 文本查重系统(一)

整体框架部分参照牛客初级项目,python2.7flaskwebmysql; 首先是界面部分(这个部分实在是不大会前端,只能看个简单的效果) 首页:index.html 内容:学生登录和教师登录按钮,text按钮…

Python基于CRNN&CTPN的文本检测系统(源码&教程)

1.背景 文本是人类最伟大和最具影响力的发明之一,是人类智慧的结晶,是人类文化、思想传承的一种基本的表达方式和不可或缺的载体。在21世纪,文本与日常生活密切相关。描述、理解万事万物,表达情感,与他人交流都离不开文本。文本以各种形式存在于生活中,尤其在信息时…

英文论文查重用什么软件比较好?

提起查重,是不是又许多同学已经开始在脑袋大了呀? 确实,我们在进行论文查重的时候既要考虑这个软件靠不靠谱,准不准确,又要考虑哪个软件我们的荷包能够负担的起,还要查询自己选择的软件会不会给我们提供降…

推荐 :数据可视化的方法、工具和应用

1. 数据可视化简介 数据可视化,是指用图形的方式来展现数据,从而更加清晰有效地传递信息,主要方法包括图表类型的选择和图表设计的准则。随着互联网的广泛应用,我们的工作和生活等各个方面,每时每刻都在产生大量的数据…

作为一个数据分析师使用ChatGPT的心得

最近一直在研究chatgpt在数据分析领用的实际使用,有几个比较具体的实际案例是我在处理工作中遇到的,给大家分享一下。 一个是在商业领域,经常性的需要写日报周报月报,但到了3月底 还需要一个季度报,而季度报的数据处理…

22种大数据分析可视化工具

22种大数据分析可视化工具有哪些?数据可视化工具在软件测试领域中扮演着非常重要的角色。 数据可视化包括数据可视表示的设计和分析。 在当今世界,我们正在处理海量数据,其中对数据可视化软件的需求日益突出,以通过图形,趋势&…

数据可视化系列-06数据分析工具QuickBI

文章目录 数据可视化系列-06数据分析工具QuickBI一文介绍QuickBIQuick BI 的基本对象 快速入门Quick BI产品架构界面说明菜单栏 我的看板工作台首页 通过仪表板分析数据 数据可视化系列-06数据分析工具QuickBI 参考: Quick BI 数据可视化分析平台 QuickBI官方文档 …

独家 | 如何利用ChatGPT自动完成6个数据科学领域的任务

作者:Ahmed Besbes 翻译:陈之炎校对:赵茹萱本文约1400字,建议阅读7分钟本文将用一些涉及机器学习和软件工程的编程问题来挑战ChatGPT。 ChatGPT仿佛是Google、StackOverflow和Readthedocs三者的组合体。 图片由James A. Molnar在“…

TradeGraph媲美交易软件的python量化交易K线工具

之前用python做量化交易,需要画k线和各种曲线等,使用了mpl_finance,但体验太差,不支持拖拽而且性能很差,于是就自己写了个k线图工具TradeGraph,性能可媲美专业的股票软件,运行界面如下图&#x…

跌疯了,理性投资人会这样做 附国内外免费股票数据源

大家好,我是宁一。 最近股市真是跌疯了。 有人打算割肉,有人打算补仓,有人直接躺平。 不管什么打算,很多人的操作,都是毫无章法的,凭着自己的个人感受去加仓,减仓。 所有亏钱的决策都是顺应…

完爆基金经理?ChatGPT炒股,一年多回报率超500%

郑雅烁 中国证券报 2023-05-21 02:48 发表于北京 天天财经独家,速关注 近日,美国顶级公立大学佛罗里达大学金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,其投资回报率甚至高达惊人的500%…

因去年开发出 ChatGPT,OpenAI 亏损 5.4 亿美元!

整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 研发具有创新性的 ChatGPT 究竟给其背后的公司 OpenAI 带来了什么? 据 The information 报道,ChatGPT 的诞生不仅给 OpenAI 带来了前所未有的关注度,吸引了微软“多年…

chatgpt赋能Python-python3_7_9怎么换成汉语

Python 3.7.9:如何将其换成汉语? Python是一种流行的编程语言,广泛用于Web开发、科学计算、数据分析和人工智能等领域。而Python 3.7.9是其中的一种版本。但是,对于一些初学者或母语非英语的用户来说,将Python 3.7.9从…