来源:新年逼自己一把,学会使用DeepSeek R1_哔哩哔哩_bilibili
前言
对于DeepSeek而言,我们不再需要那么多的提示词技巧,但还是要有两个注意点:你需要理解大语言模型的工作原理与局限,这能帮助你更好的知道AI可完成任务的边界;在和R1合作时,你最好有管理者的思维和经验,你需要知道如何向R1这个聪明程度比你高很多的下属布置你的任务。
如果不勾选深度思考这个选项,那么就是使用系统默认的V3大模型;最近(2025/2/6)因为网络攻击的问题,联网搜索可能使用效果不佳,但事实上如果想要获取的知识是在2023年12月之前的,那么就没有打开联网搜索的必要。
推理模型与指令模型
OpenAI的ChatGpt、豆包和DeepSeek-v3都属于指令模型(instruct model),而我们的深度思考R1属于推理模型。instruct model这类模型是专门设计用于遵循指令来生成内容而推理模型是专注于逻辑推理问题解决的模型,能够自主处理需要多步骤分析因果推断或者复杂决策的这种任务。
理解大模型语言的本质
特点1
大模型在训练时是将内容token化的,大模型所看到的和理解的世界和我们不太一样。
大型语言模型的预训练,本质上是让模型建立文本片段之间关联的规律,为了实现这个目标,所有给大模型投喂的数据资料都会经过特殊处理。首先是将文本切割名为token的基本单元;
然后将这些token转换为数字编码,有点类似于将现实世界的自然语言转换为只有大模型才可以理解的“密码本”;
由于这一种训练方式,导致很多指令型大语言模型无法正确回答strawberry(草莓)这个单词有几个英文字母“r”。
因为strawberry被切割为了str、aw、berry三个toekn,随后语言模型只数了str和berry的数字编码。虽然推理模型可以做到这种功能,但实际过程也很麻烦。
特点2
大模型知识是存在截至时间的。最经典的例子:
对于大模型而言它的知识储备存在三重壁垒,它的预训练需要处理PB级别的原始数据,而这种原始数据的清洗需要经过大量的工序会占用非常多的时间。训练完成之后,他还要经过监督微调强化学习以及基于人类反馈的强化学习等耗时工序。DeepSeek R1的知识库训练截止时间是在2023年的10月至12月之间,恰好是Faker选手夺取四冠之前。想要突破这些局限性,可以选择联网搜索、提供文献和输入提示词等方法来解决。
特点3
大模型缺乏自我认知/自我意识
大模型既不能回应你叫他的具体名字,也无法回答你对它的详细特点的提问。关于大模型的使用技巧,往往你也无法询问他本身。
但是一些比较成熟的指令模型已经约束了常见的问答内容。
特点4
记忆有限(64K/128K)
大模型在对话过程中的上下文长度是受限的,R1现在只有64K长度的token。一次性投喂超过4万字的文档,它就只会通过RAG(搜索增强的方式)。
特点5
输出长度受限(4K/8K)
单词回答最多输出2000-4000个中文字符
使用技巧
技巧1:提出明确的要求
技巧2:要求特定的风格
技巧3:提供充分的任务背景信息
技巧4:主动标注自己的知识状态
技巧5:定义目标,而非过程
技巧6:提供AI不具备的知识背景
技巧7:从开放到收敛