广告行业中那些趣事系列63:使用chatgpt类大模型进行文本分类任务

导读:本文是“数据拾光者”专栏的第六十三篇文章,这个系列将介绍在广告行业中自然语言处理和推荐系统实践。本篇主要介绍了使用chatgpt类大语言模型进行文本分类任务,对于希望使用chatgpt类大语言模型上进行数据标注、文本分类和关键词抽取等任务感兴趣的小伙伴可能有帮助。

欢迎转载,转载请注明出处以及链接,更多关于自然语言处理、推荐系统优质内容请关注如下频道。
知乎专栏:数据拾光者
公众号:数据拾光者

摘要:本篇主要介绍了使用chatgpt类大语言模型进行文本分类任务。首先介绍了背景,论文中提出了一种使用LLM模型基于线索收集和推理CARP进行文本分类任务;然后介绍了prompt设计,主要包括任务描述、示例和输入文本,还介绍了三种不同的示例获取方法;接着介绍了收集线索和推理流程;然后通过实验对比了微调模型、zero-shot和few-shot场景细使用三种不同的提示词进行文本分类的效果,还通过消融实验对比了示例数量、示例中不同的组件元素、不同标签结果词、不同线索词以及示例顺序对模型效果的影响。最后在我们实际的业务场景中实践了CARP提示词策略。对于希望使用chatgpt类大语言模型上进行数据标注、文本分类和关键词抽取等任务感兴趣的小伙伴可能有帮助。

下面主要按照如下思维导图进行学习分享:

c88a93a90672dcbdac3445bc282a7570.png

01.背景介绍

调研通过chatgpt/gpt4等大语言模型LLM进行文本分类、关键词抽取等任务,辅助我们标注语料,提升文本分类效果等。

论文资料: https:// arxiv.org/abs/2305.0837 7
项目github地址: http:// github.com/ShannonAI/GP T-CLS-CARP

尽管 GPT-3 等大规模语言模型 (LLM) 取得了显著的成功,但它们在文本分类任务中的性能仍然明显低于经过微调类的模型,主要原因有两个:

(1)缺乏处理复杂语言现象(如强化、对比、反讽等)的推理能力;

(2)在上下文学习中,允许的标记token数量有限。

为了解决这个问题,论文作者构建了一套基于线索推理的CARP(Clue And Reasoning Prompting)方法。整体思路:首先提示LLM大语言模型寻找表面线索,这里的线索可以是关键词、短语、上下文信息、语义、语义关系、语气、引用等;然后根据这些线索词进行推理得到最终决策。

为了解决大模型token限制的问题,CARP使用微调后模型在监督数据集上使用KNN搜索示例用于上下文学习ICL( in-context learning),通过这种方法不仅可以使模型可以利用LLM 的泛化能力,而且还可以使用特定任务下全量标注数据集提供的知识。

通过实验,CARP在五个常用的文本分类公共数据集中有四个达到了SOTA效果。更值得惊喜的是,使用CARP方法每个类仅采样16条的文本分类效果就可以媲美每个类别使用1024条样本的有监督学习模型,使用少量的标注样本就可以达到大量样本的效果,对于我们实际业务场景中,不仅可以减少样本标注数量,节约标注人力,而且还可以有效提升文本分类模型效果。

02.设计prompt

2.1 prompt内容

CARP的prompt内容主要包括以下三部分:

(1)任务描述。以情感分类任务为例,任务描述可以表示为:Classify the overall sentiment of the input as positive or negative;

(2)提供示例。对于few-shot场景需要提供K个示例,主要有两个目的:第一个目的是为LLM模型做决策提供知识,可以有效提升效果;第二个目的是提供LLM模型输出需要遵循的格式,使得文本语言更容易转化成标签;

(3)输入。用于分类的文本输入数据。

2.2 获取示例

对于few-shot场景需要提供示例,论文中主要有两种获取示例的策略:

(1)随机采样。从训练集中每个类别随机采样K条样本;

(2)KNN搜索样本。随机采样策略的优点是比较简单,缺点是很难保证获取的示例和输入样本是语义相关的。为了解决这个问题,通过KNN搜索从训练集中获取和输入样本语义相近的示例。这里分别使用两种encoder来表征文本:

[1]使用对比学习模型SimCSE获取语句embedding。使用Sup-SimCSE-RoBERTa-Large 作为编码器,这种方法的好处在于通过SimCSE可以获取语义相近的样本示例,但是找到的样本可能标签不同。

[2]使用微调后的模型获取语句embedding。使用SimCSE这一类模型虽然可以搜索到语义相似的实例,但是不一定适合特定的文本分类任务。为了解决这个问题,CARP使用训练集微调之后的模型作为KNN搜索的编码器。首先使用训练集在Roberta模型上微调,然后获取[CLS]句向量用于KNN搜索。通过这种方式, 不仅可以利用LLM 的泛化能力,而且还可以使用特定任务下全量标注数据集提供的知识。

03.收集线索和推理

3.1 收集线索和推理流程

3.1.1 收集线索

对于文本序列,线索是像关键词、短语、上下文信息、语义、语义关系、语气、引用等这样的局部事实证据。举例说明:

输入:Steers turns in a snappy screenplay that curls at the edges; it’s so clever you want to hate it.
线索:" snappy", " clever", " want to hate it" are clues for determining the sentiment of the input sentence.

ps:输入文本翻译成中文

google翻译:斯蒂尔斯的剧本充满活力,边缘卷曲;它太聪明了,你想讨厌它。

chatgpt翻译:斯蒂尔斯创作的故事情节犀利而紧凑,弯曲的角度让人着迷;它如此聪明让你不由得想去憎恨它。

3.1.2 推理

推理阶段,考虑到例如否定、强化、反讽等语言现象,LLM需要根据上面得到的线索信息去挖掘更深层观点,拼接局部证据形成最终决定。对于上面的例子进行推理过程:

(1) The phrase "snappy screenplay" implies that the screenplay is of a high quality and is well-crafted.
(2)The phrase "curls at the edges" implies that the screenplay is cleverly written.
(3) The phrase "so clever you want to hate it" is a paradoxical statement, which suggests that the sentiment is positive despite the use of the word "hate".

chatgpt翻译:

(1)“精彩的剧本”一词意味着这个剧本的质量很高,写得很好 ;
(2)“卷边”的这个词语意味着这个剧本是巧妙地写成的;
(3)“太聪明以至于你想恨它”是一个矛盾的陈述,尽管使用了“恨”这个词语,但它暗示了情感是积极的。

3.1.3 做决策

基于上面的线索进行推理,得到如下决策:

Overall, the clues and reasoning process point to a positive sentiment for the input sentence.

将收集线索和推理结合使用具有以下优点:

(1)它促使模型逐步思考和做出决策:收集线索更侧重于关键词等表面特征,而推理则基于表面特征进行更深入的论证。这个过程更好地模拟了人类决策的方式;

(2)收集线索和推理为人类干预提供了一个通道:在少样本学习中,需要在实例中提前准备好线索和推理,我们可以根据需要进行修改。这对于在提示构建阶段进行纠错很有帮助;

(3)从可解释性和不确定性估计的角度来看,少样本学习中的线索和推理是人类可读的影响函数;

(4)在少样本学习中,和数据对(文本、标签)相比,在提示中结合收集线索和推理过程更符合指令调整目标。通过这种方式可以大大降低LLM的训练目标与下游任务的上下文学习之间的差异。

3.2 zero-shot场景下的推理流程

zero-shot场景下不需要提供示例,也就不需要提供CLUES和REASIONS,只需要让模型输出CLUES和REASIONS,Prompt如下:

This is an overall sentiment classifier for opinion snippets.
First, list CLUES (i.e., keywords, phrases, contextual information, semantic relations, semantic meaning, tones, references) for determining the overall sentiment of the input.
Next, deduce a diagnostic reasoning process from clues and the input to determine the overall sentiment.
Finally, determine the sentiment of input as Positive or Negative considering clues, the reasoning process and the input.

INPUT: <text>
CLUES:
REASIONS:
SENTIMENT:

翻译:

这是一个针对意见片段的情感分类器。
首先,列出用于确定输入整体情感的线索(关键字、短语、语境信息、语义关系、语义含义、语调和参考)。
接下来,从提示和输入中推导出诊断推理过程以确定总体情感。
最后,考虑线索,推理过程和输入,确定输入的情感为积极或消极。

下图展示了zero-shot场景下不同prompt方法的文本分类效果,其中a部分是常规prompt方法,b部分是基于思维链的prompt方法,c是论文提出的CARP的prompt方法。

8ef110b4f5f39bb66f09abd5ce5455e4.png

图1 zero-shot场景下不同prompt方法的文本分类效果

3.3 few-shot场景下的推理流程

few-shot场景下需要提前准备好训练集样本对应的CLUES和REASIONS,这样就可以作为候选信息提供给输入样本。输入样本根据KNN检索找到K条示例用于文本分类。Prompt如下:

This is a sentiment classifier for input opinion snippets.
First,List CLUES(i.e.,keywords,phrases,contextual information, semantic meaning, semantic relationships, tones, references) that support the sentiment determination of the input.
Next, deduce the diagnostic REASONING process from premises (i.e., clues, input) that support the sentiment determination.
Finally, based on clues, the reasoning and the input, categorize the overall SENTIMENT of input as Positive or Negative.

input: <demo-text-1>
clues: <demo-clues-1>
reasoning: <demo-reason-1>
sentiment: <demo-label-word-1>
input: <demo-text-2>
clues: <demo-clues-2>
reasoning: <demo-reason-2>
sentiment: <demo-label-word-2> ... ...
input: <demo-text-n>
clues: <demo-clues-n>
reasoning: <demo-reason-n>
sentiment: <demo-label-word-n>

下图展示了few-shot场景下(使用一条示例)不同prompt方法的文本分类效果:

cca51583edbe484e592d02d417afeaca.png

图2 few-shot(K=1)场景下不同prompt方法的文本分类效果

上图中a部分展示了普通prompt方法,b部分展示了基于思想链Chain-of-Thought(CoT)的prompt方法,c部分展示了CARP的promp方法。可以看出CARP能识别出press the delete key是消极的。

3.4 投票确定最终决策

传统的文本分类模型会得到确定的分类结果,而基于上下文学习的LLM模型生成结果时由于采用多种不同的采样策略会导致多次请求返回结果存在差异,论文中使用如下两种投票策略:

(1)多数投票。将投票频率高的作为最终结果;

(2)加权投票。基于加权求和得到最终投票结果。

04.实验结果

4.1 整体对比不同模型效果

下图对比了五种公共数据集中有监督学习模型、zero-shot场景下三种prompt方法和few-shot场景下使用随机采样、SimCSE的KNN检索和微调模型的KNN检索下的文本分类效果:

e678946582ecfd3ecac0c5ac43ce380f.png

图3 整体对比不同模型效果

从上图实验结果中可以看出:

(1)LLM大语言模型中few-shot效果要明显优于zero-shot;

(2)对于zero-shot场景中,论文提出的CARP提示方法要优于常规的prompt和基于思维链Chain-of-Thought(CoT)的prompt方法;

(3)对于few-shot场景中,使用微调之后的模型进行KNN检索效果(经过投票之后效果更优)要优于随机采样和基于SimCSE获取句向量特征进行KNN检索;

(4)整体来看效果,使用LLM+CARP+few-shot》有监督学习模型》LLM+CoT+few-shot》LLM+zero-shot。

4.2 对比不同样本下模型效果

下图对比了每个类别分别获取n个样本下不同模型的效果:

e934ffdda210eb2eb3f20e94781bffc6.png

图4 对比不同样本下模型效果

从上图实验结果中可以看出:少样本情况下,LLM模型效果整体优于有监督学习的微调模型,并且样本数量越小,差距越明显。说明LLM+propmt在小样本情况下有明显的优势,尤其每个类别使用16条样本,LLM模型很容易达到90%的效果。

4.3 对比域自适应效果

下图对比了模型在不同分布数据集下的效果,比如使用SST-2数据集训练模型,分别在SST-2和Yelp测试集上查看模型效果,

3f94b410d6ed02e9d9a0c945ecde6603.png

图5 对比模型域自适应效果

从上图中可以看出,有监督学习模型在域自适应方面效果要差于LLM+CARP模型。

05.消融实验

下面对CARP进行消融实验查看模型效果的影响因素。

5.1 示例数量对模型效果的影响

下图是常规prompt和CARP下不同示例数量对模型效果的影响:

e43ef5205d03938c10fe8ddebb14f868.png

图6 不同示例数量对模型效果的影响

上图中左边部分是使用常规prompt在few-shot场景下的模型效果情况,可以看出三种采样策略效果差距不明显;右边部分是CARP在few-shot场景下的模型效果,整体来看效果依次是FT KNN-sampler》SimCSE KNN-sampler》Random sampler。

5.2 示例中不同组件对模型效果的影响

下图展示了示例中text、clue、reason和label对模型效果的影响:

1cf657e21a38022f99e82cf0caaa2fd1.png

图7 示例中不同组件对模型效果的影响

从上图中可以看出,示例中各组件对模型效果影响从大到小依次是text》clue》reason》label。

5.3 不同标签结果词 label words对模型效果的影响

下图展示了使用不同策略的标签结果词对模型效果的影响:

dc153cab12d05508ab26e34dc4c1d142.png

图8 使用不同策略的标签结果词对模型效果的影响

上图中主要对比了以下六种标签结果词:

(1)Position index:标签索引的数字,比如1,2...;

(2)Annotation words:标注词,比如情感分类例子中的positive, negative;

(3)Synonyms words:同义词,比如great, terrible;

(4)Flipped words:反向词,比如用negative代表积极的文本,而positive代表消极的文本;

(5)Random words:随机词,随机从词表中选取词作为标签结果词;

(6)Special tokens:特殊符号的词,比如使用<POS>代表积极类别,<NEG>代表消极类别。

可以发现使用标注词效果是最好的,而反向词会使模型效果急速下降。

5.4 不同线索词对模型效果的影响

线索词主要包括关键词、短语、上下文信息、语义、语义关系、语气、引用等,下面分别对了关键词/短语、上下文信息、语义关系、语气和引用对模型效果的影响,可以看出关键词/短语对模型效果影响最大,引用对模型效果影响最小。

eb9ce0b9ce6ca3f29af65ec895cf8f80.png

图9 不同线索词对模型效果的影响

5.5 示例顺序对模型效果的影响

论文作者发现提供的示例顺序对CARP模型的效果也有一定影响,分别对比了随机顺序、从高到低和从低到高三种示例顺序对模型效果的影响,整体来看根据相似度从低到高排序示例模型效果是最好的。

fe014943e8e6447b1b83d7a4c3bbe4c3.png

图10 示例顺序对模型效果的影响

06.将CARP应用到我们实际的业务场景实践

prompt:

这是一个输入文本识别是否和汽车标签有关的分类器。
第一步,列出和汽车标签相关的线索词(即关键词、短语、上下文信息、语义含义、语义关系、语气、参考资料)。
接下来,从已有的线索词和输入中推导出诊断推理过程。
最后,根据线索、推理和输入将输入文本识别为汽车或者“其他”。
示例:
输入:五菱荣光单排和双排有什么区别
线索词:五菱荣光、单排、双排
推理流程:1. 五菱荣光是汽车品牌和车型。
2. 单排和双排可能是指车辆的座位排列方式。
标签:汽车

预测1:

输入:2008年奥迪A6L门板后拆装###
线索词:
以下内容由ChatGPT应答:
:2008年、奥迪、A6L、门板、拆装
推理流程:
1. 奥迪A6L是汽车品牌和车型。
2. “2008年”可能表示车型的年份,说明该车型属于旧款车型。
3. “门板”和“拆装”指的是汽车的构成部分和操作方式。
标签:汽车

预测2:

输入:汽油要加多少合适?汽油有没有保质期?###
线索词
以下内容由ChatGPT应答:
:汽油、加、合适、保质期
推理流程:
1. “汽油”是与汽车相关的物质。
2. “加”可能是指将汽油加入车内。
3. “合适”表示需要确定汽油的加量。
4. “保质期”可能是指汽油的保存时间。
标签:汽车

预测3:

输入:轮胎怎样识别牌子###
线索词
以下内容由ChatGPT应答:
:轮胎、识别、牌子
推理流程:
1. “轮胎”是与汽车相关的物品。
2. “识别”可能是指如何判断轮胎的品牌。
3. “牌子”指的是轮胎的制造商或商标。
标签:汽车

预测4:

输入:07款帕萨特领驭使用说明书 - 百度###
线索词
以下内容由ChatGPT应答:
:07款、帕萨特领驭、使用说明书、百度
推理流程:
1. “07款帕萨特领驭”是汽车的品牌、车型和年份。
2. “使用说明书”是与汽车相关的文献资料。
3. “百度”可能是指在搜索引擎中进行了查询。
标签:汽车

预测5:

输入:广州实行“不动产登记+水、电、燃气”一站式服务###
线索词
以下内容由ChatGPT应答:
:广州、不动产登记、水、电、燃气、一站式服务
推理流程:
1. “广州”是一个城市名称。
2. “不动产登记”是指房产等不动产的登记手续。
3. “水、电、燃气”是指房屋的基础公共设施。
4. “一站式服务”可能是指将多个服务组合在一起,提供便捷、高效的服务。
标签:房地产

我这里告诉chatgpt要限制标签输出:

标签只能是汽车或者其他,
输入:广州实行“不动产登记+水、电、燃气”一站式服务###
线索词
以下内容由ChatGPT应答:
:广州、不动产登记、水、电、燃气、一站式服务
推理流程:
1. “广州”是一个城市名称。
2. “不动产登记”是与房地产相关的手续。
3. “水、电、燃气”是指房屋的基础公共设施。
4. “一站式服务”可能是指将多个服务组合在一起,提供便捷、高效的服务。
标签:其他

预测6:

输入:别妄自菲薄!龚翔宇已足够优秀,瑞士官方肯定龚翔宇有巨星水平###
线索词
以下内容由ChatGPT应答:
:别妄自菲薄、龚翔宇、优秀、瑞士、官方、巨星水平
推理流程:
1. “龚翔宇”是一个人的名字。
2. “优秀”描述龚翔宇在某一方面表现出的特点。
3. “瑞士”是一个国家名称。
4. “官方”可能是指某个机构或组织的官方认定。
5. “巨星水平”是指高水平的表现。
标签:其他

预测7:

输入:详细讲解股票基金的书###
线索词
以下内容由ChatGPT应答:
:详细讲解、股票基金、书
推理流程:
1. “详细讲解”是描述书本的特点。
2. “股票基金”是一个投资品种。
3. “书”是指一种文献资料。
标签:其他

总结及反思

本篇主要介绍了使用chatgpt类大语言模型进行文本分类任务。首先介绍了背景,论文中提出了一种使用LLM模型基于线索收集和推理CARP进行文本分类任务;然后介绍了prompt设计,主要包括任务描述、示例和输入文本,还介绍了三种不同的示例获取方法;接着介绍了收集线索和推理流程;然后通过实验对比了微调模型、zero-shot和few-shot场景细使用三种不同的提示词进行文本分类的效果,还通过消融实验对比了示例数量、示例中不同的组件元素、不同标签结果词、不同线索词以及示例顺序对模型效果的影响。最后在我们实际的业务场景中实践了CARP提示词策略。对于希望使用chatgpt类大语言模型上进行数据标注、文本分类和关键词抽取等任务感兴趣的小伙伴可能有帮助。

最新最全的文章请关注我的微信公众号或者知乎专栏:数据拾光者。

d45d1204eb705fa6fd3a70d29dc7d4f4.png

码字不易,欢迎小伙伴们点赞和分享。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/36091.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

GPT-4竟被CS学生「开源」了!

Datawhale开源 开源&#xff1a;免费GPT-4&#xff0c;编辑&#xff1a;新智元 【导读】最近&#xff0c;一名来自欧洲的计算机系学生竟然把GPT-4给「开源」了。利用OpenAI加持的网站的API&#xff0c;开发者即可免费体验GPT-3.5/GPT-4。对此&#xff0c;OpenAI紧急发邮件警告…

写公开信可别等被喷,才发现其实可以这样

正文共 1022 字&#xff0c;阅读大约需要 4 分钟 公务员必备技巧&#xff0c;您将在4分钟后获得以下超能力&#xff1a; 快速生成公开信 Beezy评级 &#xff1a;B级 *经过简单的寻找&#xff0c; 大部分人能立刻掌握。主要节省时间。 推荐人 | Kim 编辑者 | Linda ●图片由Le…

IDE装上ChatGPT,这款编辑器真的做到可以自动写代码了,彻底炸裂!!

上一篇&#xff1a;用ChatGPT画了亿些小姐姐&#xff0c;被惊艳到了&#xff01;&#xff01; 介绍 Cursor 是集成了 GPT-4 的 IDE 工具&#xff0c;目前免费并且无需 API Key&#xff0c;支持 Win、Mac、Linux 平台&#xff0c;可以按要求生成代码&#xff0c;或者让 AI 帮助优…

科大讯飞回应薪酬回溯制度;OpenAI宣布开放API,开发人员可将ChatGPT集成到自己产品;Godot 4.0发布|极客头条...

「极客头条」—— 技术人员的新闻圈&#xff01; CSDN 的读者朋友们早上好哇&#xff0c;「极客头条」来啦&#xff0c;快来看今天都有哪些值得我们技术人关注的重要新闻吧。 整理 | 梦依丹 出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09; 一分钟速览新闻点&#…

ubuntu18.04设置自启动踩坑贴(拿来即用)---全网搜索半天都没有,ChatGPT回答都是有问题的!!

前言&#xff1a;其实很简单&#xff0c;全网的资料实在坑太多&#xff08;无语&#xff09;&#xff0c;有一篇还不错&#xff0c;我大多数借鉴这篇https://cloud.tencent.com/developer/article/1803805&#xff0c;但直接用貌似也不通&#xff0c;这边记录了我的实测可跑通版…

centos7 设置ssh_key 登陆 公钥与密钥,借助工具生成 .ppk 文件,

这里选择不对root进行直接操作&#xff0c;也就是会出现各个用户所对应的key 1.新增登陆用户,分配root权限组 [rootlocalhost ~]# adduser zhw2 [rootlocalhost ~]# passwd zhw2 Changing password for user zhw2. New password: BAD PASSWORD: The password is shorter than…

Gitlab设置ssh密钥详解

系列文章目录 文章目录 系列文章目录前言一、创建ssh key1.在客户端查看有没有密钥2.在客户端查看当前git的用户名和邮箱3.输入密码创建ssh key4.在ssh文件夹下有两个文件&#xff0c;一个是私钥&#xff0c;以pub结尾的为公钥&#xff0c;把公钥添加到gitlab中的ssh密钥中5.回…

SSH公私密钥模式,Git配置使用

Git关联验证本地和远程仓库的方式有&#xff1a; -HTTP模式(需要存储账号密码) 如&#xff1a;https://gitee.com/BB-X/git-idea-test.git -SSH模式(需要匹配公私秘钥) 如&#xff1a;gitgitee.com:BB-X/git-idea-test.git 1、生成公私秘钥对 2、在远程托管平台账号中配置公钥 …

git设置SSH密钥

Git是分布式的代码管理工具&#xff0c;远程的代码管理是基于SSH的&#xff0c;所以要使用远程的Git则需要SSH的配置。git设置密钥的步骤如下&#xff1a; 步骤1 在客户端查看有无密钥 命令行输入&#xff1a; cd ~/.ssh如果提示如下图所示&#xff0c;就说明还没有创建密钥…

Git密钥配置

一、下载并安装Git 官网下载地址点击这里 二、打开git bash 选择一个空文件夹&#xff0c;右键选择Git Bash Here 三、配置密钥 在Git Bash界面输入git命令 初始化自己的用户名和邮箱 git config --global user.name "输入你的用户名" git config --global u…

HLS新手入门教程

文章目录 HLS学习笔记1. 什么是HLS2. HLS开发流程3. HLS基本语法3.1. #pragma HLS3.2. HLS数据类型3.3. HLS模块定义3.4. 数组分区3.5. 流水线优化3.6. 组合逻辑优化3.7. 一些基本概念3.8. 完整示例3.8.1. 矩阵乘法3.8.2. 函数调用和循环3.8.3. 流水线和并行化指令 4. HLS高级语…

chatgpt赋能python:Python入门基础教程

Python入门基础教程 Python是一种高级编程语言&#xff0c;开发者可以编写多种应用程序&#xff0c;从简单的脚本到复杂的应用程序。Python易学易用&#xff0c;是新手和专业人士的首选编程语言。本文将介绍Python入门基础教程&#xff0c;帮助您开始学习Python编程。 安装Py…

新手入门 Python 的不同方法

学习Python意味着练习Python。在本文中&#xff0c;我们将探讨一些最流行的方法来练习 Python 编程技能。 学习几乎任何新技能不仅需要获得知识&#xff0c;还需要经验。这就是我们通过实践获得的。 本文将帮助任何最近开始学习 Python 的人&#xff0c;或者已经了解 Python 基…

提高情商必读的10本书籍推荐

职场中&#xff0c;情商&#xff08;即情绪智慧&#xff09;往往被认为比智商更为重要。情商不仅有助于更好地理解自己和他人的情绪&#xff0c;还能帮助我们在职场中更好地沟通、协作与领导。下面我们为大家推荐10本提高情商必读的书籍&#xff0c;帮助你在职场中取得更好的成…

必读的一些书籍推荐

推荐一&#xff1a;《如雪如山》作者: 张天翼 本书以女性视角隐喻女性的生存故事。所有的女人都藏着一块相同的拼图。他们暗中的悲欢离合&#xff0c;爱恨情仇如此不同&#xff0c;却又相通。 作者张天翼通过七位心思敏锐、笔触细腻犀利的女主人公的人生片段&#xff0c;梳理出…

有哪些人际关系书籍值得推荐?看完这两本书你也能成为社交高手!

要想提高人际关系和社交能力&#xff0c;阅读确实不失为一个好办法。 但是问题是该看什么书呢&#xff1f; 有哪些人际关系书籍值得推荐&#xff1f; 笔者强烈推荐《情商必读12篇》和《沟通与说服必读12篇》这两本书。建议你能把这两本书都完完整整、一字不漏地看完&#xf…

关于社交的书籍推荐,这本书最实用

看过那么多关于社交方面的书籍&#xff0c;个人感觉最值得推荐、最实用的还是《情商必读12篇》。 &#xff08;注意&#xff0c;这本书传统平台无售&#xff0c;只能从官网获得&#xff0c;请自行百度&#xff09; 也正是在看过这本书之后&#xff0c;笔者才真正明白了所谓人际…

有用但用处不多的html的属性

前言 html的属性&#xff0c;瀚若星河&#xff0c;有些是平时经常用到的&#xff0c;有些是平时不常用的&#xff0c;还有一些基本用不到。 今天就总结一般不怎么用&#xff0c;但是有用&#xff0c;用处又不多的属性。 Geolocation&#xff08;地理位置&#xff09; 我实操…

【趣学算法】贪心算法、海盗古董装船问题

14天阅读挑战赛 努力是为了不平庸~ 算法学习有些时候是枯燥的&#xff0c;这一次&#xff0c;让我们先人一步&#xff0c;趣学算法&#xff01; 文章目录 贪心本质贪心选择最优子结构 最优装载问题sort函数总结 贪心本质 一个贪心算法总是做出当前最好的选择&#xff0c;也就是…

《趣学算法》读书笔记

内容摘要 主要介绍我对本书的一些自我感觉比较亮点地方的总结。 第一章 算法 算法有两条线索&#xff0c;数据结构、算法策略。 算法特性 时间复杂度 常见算法时间复杂度 时间复杂度的渐进上界 渐进精确界 用渐进上界和渐进下界逼近&#xff0c; 空间复杂度 递归 递归包…