Ver
V0.0 250216: 如何给WPS安装插件用以支持其他大模型LLM
V0.1 250217: WPS的灵犀AI现在是DeepSeek R1(可能是全参数671B)
前言
WPS也有内置的AI,叫灵犀,之前应是自已的LLM模型,只能说是属于“能用,有好过无”,所以我一直在找能否在WPS上用上其他的LLM大语言模型,比如目前最火的DeepSeek,结论是:安装OfficeAI助手,就能在WPS上用上其他的LLM了。
2025-2-17号,发现WPS灵犀AI的底座LLM已明确显示是DS R1了。
Index
OfficeAI助手 - 免费办公智能AI助手, AI写作
OfficeAI助手插件(主要是下载、安装、设置)
1、下载、安装(自动安装VC库时有点慢)
OfficeAI助手 - 免费办公智能AI助手, AI写作 (在这里下载)
软件版本: v0.3.15
软件大小: 32MB
软件授权: 免费
支持语言: 中文/英文
更新时间: 2025-2-14
系统平台: Windows/Office/WPS
2、设置WPS信任第三方COM加载项才能在WPS中使用
默认情况下wps会阻止加载第三方插件,解决方法:
- 运行WPS,打开或新建任意文档;
- 左上找到文件菜单->选项,在选项页面中找到信任中心 :
- 勾上”受信任的加载项”(如没找到下图的选项,请将wps更新一下)
- 点“确定“保存对应设置,重开一般会显示。如还是未显示,重装一下插件。
- 重启WPS后出现"OfficeAI"
- 在WPS右侧需要用微信扫码后使用
3、设置使用的LLM大模型
(1)LLM默认是豆包的lite-32K(默认支持:豆包、百度、ChatGLM、通义)
从综合应用来说,这里推荐使用豆包的:doubao-pro-32K,Doubao-pro-32K 是一款兼顾性能与成本的中长文本处理模型,32K属于中等偏长的上下文长度,平衡了性能与成本。若需更高性价比或超长上下文支持,可结合 Doubao-lite 或 Doubao-pro-128k 使用。
注:这里的32K的解释
指模型的上下文窗口(context window)为32,000 tokens(支持 32K 上下文窗口(约 3.2 万汉字),适合处理长文本推理和交互)。这一指标决定了模型单次处理文本的长度上限。32K的上下文能力允许模型处理更长的对话、文档或代码(例如分析长文章、撰写报告、调试复杂代码等),适合需要长文本记忆的场景。下表是一个直观的模型类型映射到场景的说明:
模型类型 | 特点 | 适用场景 |
---|---|---|
Doubao-lite | 响应速度更快,成本更低(输入 0.3 元/百万 tokens) | 实时交互、简单任务 |
Doubao-pro-128k | 支持 128K 上下文(约 12.8 万汉字),适合超长文本分析 | 法律文档、论文研读 |
Doubao-vision | 多模态模型,擅长图文理解 | 图像描述、视觉问答 |
(2)使用DeepSeek
下面是我使用官网的KEY,模型用的是R1。
4、使用
OfficeAI助手简介 | OfficeAI助手 (在线使用手册)
附录1:灵犀的底座模型的介绍(DS R)
附录2:deepseek-chat和deepseek-reasoner的区别和使用场景
deepseek-chat 和 deepseek-reasoner 是 Deepseek 平台提供的两种不同功能的模型,其区别和使用场景如下:
1. 核心区别
模型 | 功能定位 | 技术特点 |
---|---|---|
deepseek-chat | 通用对话与交互 | 面向自然语言对话场景,擅长生成流畅、连贯的文本回复,支持多轮对话和日常交流。 |
deepseek-reasoner | 逻辑推理与复杂问题解决 | 针对需要深度分析、逻辑推理的任务(如数学计算、代码调试、决策支持等),强调结构化思考和精准输出。 |
2. 使用场景对比
deepseek-chat
-
适用场景:
-
客服机器人(自动回复、用户咨询)。
-
日常闲聊、情感交流。
-
内容生成(如文案撰写、故事创作)。
-
简单信息查询(天气、新闻摘要等)。
-
-
示例任务:
-
用户问:“推荐一部好看的电影。”
-
生成营销文案:“为新产品写一段吸引人的广告语。”
-
deepseek-reasoner
-
适用场景:
-
数学/物理问题求解(如方程推导、几何证明)。
-
代码分析与调试(解释代码逻辑、修复错误)。
-
科学计算与数据分析(如统计推断、数据建模)。
-
复杂决策支持(基于规则或数据的策略建议)。
-
-
示例任务:
-
用户问:“如何用 Python 实现快速排序算法?”
-
解决数学题:“已知三角形三边长为 3、4、5,求其面积。”
-
3. 选择建议
-
选择
deepseek-chat
:
若任务以开放性对话、文本生成为主,无需深度逻辑分析,优先使用此模型。其响应更自然,适合交互性强的场景。 -
选择
deepseek-reasoner
:
若任务涉及结构化问题、数学/编程挑战或需要分步推理,则选择此模型。它更注重精准性和逻辑严谨性。
4. 技术配置差异
-
API_KEY 区分:两者的 API 密钥不同(如
deepseek-chat
vs.i8e4eba839936
),可能对应不同的服务端接口或计费策略。 -
依赖组件:本地部署时可能需要安装不同的依赖库(如
reasoner
需数学计算库支持)。
总结
-
对话优先选 Chat,推理优先选 Reasoner。
-
若任务边界模糊(如既有对话又需推理),可尝试结合两者,或参考 Deepseek 官方文档的混合调用方案。
-
建议通过实际测试验证模型效果,或咨询平台技术支持以获取更详细的性能对比数据。