全民AI计划:通过langchain给LLM接上落地的大腿

langchain是一个开源项目 github.com/hwchase17/l… 。这个项目在GitHub上已经有45.5K个Star了。此项目由一位叫hwchase17的国外小哥在2022年底发布。

我有理由相信,这个项目是为了对接大语言模型才搞的

一、企业困境: 如何应用大语言模型

大语言模型(Large Language Model, LLM)如雨后春笋一般,噼里啪啦地陆续露头。一时间,LLM成为了网络流行语。

1.1 有关上下文

我虽然从事这个行业,但对此类缩写并不敏感。一段时间,我一直以为LLM是“聊聊吗”的简称。后来,老领导给我发LLM,我问他想聊什么,被批评了。我庆幸没把LLM当成“老流氓”。

看上面那段话,具体LLM是什么,其实跟语境有关系,这个语境就是上下文

似乎大家更热衷于调戏大语言模型,并不关心什么是上下文。高考出来了,你让AI写高考作文,感觉掌握了最尖端的科技。这没错,作为大众用户这就够了。

但是,作为企业用户他们却愁得慌。自己的企业该如何去跟LLM结合呢?直接在ChatGPT外面套个壳吗?那人家干嘛不直接用官方的呢?

现在市面上的大语言模型都是通用模型。也就是说,你问它泛知识它都知道,然而问它小领域知识,它是不知道的。

1.2 辛弃疾与我

我问ChatGPT:你从哪里了解到辛弃疾的?

它回答:

作为一个人工智能模型,我是通过在多个来源和语料库上的大规模学习来获得知识和信息的。我可以回答辛弃疾是谁以及他的生平事迹。

但是,我问它关于TF男孩的事情,它不知道。

辛弃疾是泛知识,本人(TF男孩)是领域知识(只活跃在掘金社区)。因此它不知道我。

1.3 领域内应用

迁移到垂直行业也是同样的道理。

大语言模型对于泛知识能找到上下文,这源于网络上公开的数据。但是对于领域知识,它的表现可能就差点。因为你们公司的数据,它拿不到。

你问它:我这个月迟到两次,第1次迟到15分钟,第2次35分钟,请问我的工资少发多少?

你这是在为难它,也是在为难你自己。

  • 你哪个公司?
  • 你们公司考勤是什么制度?
  • 你工资多少?由什么构成?
  • ……

你既然想让AI服务我们,那就得是面面俱到。因此,它不知道你可以告诉它。告诉它之后,你再问,它就会了。

哎!这就做到了大模型与行业领域结合。你可以问它你们公司的内部资料,比如规章制度。也可以让它去探索你们公司项目和财务数据之间的关联。

但是,这里面会有一些问题。

  • 首先,你愿意把这些数据给大模型吗?哈哈!假如你是一家银行,或者就是一个生产皮鞋的,你愿意把生产或者经营数据给大模型吗

  • 其次,不好意思,就算你愿意给,人家大模型不要。你问个三五句话还行,你扔过来近五年的几百份财务报表,大模型是拒绝的。你这堆材料里面,第1份文件的第2段和第206份文件的第3段有关联,老子没工夫帮你整理这个

哈哈,这老有意思。都说LLM如何如何火,但是企业心里也琢磨:它除了帮员工代写周报、请假理由,它能为我做什么呢

至此来看,其实大家还是无法更深层次地触摸到LLM。

不过还好,langchain来了!它带着解决方案过来了!

二、LangChain: 给大语言模型接腿

再声明一下langchain的相关信息。你看到这儿可以点链接走了,因为我讲的不会比它更权威

开源地址:github.com/hwchase17/l…

帮助手册:python.langchain.com/

外国小哥写的,所以基本都是英文资料。中文好的朋友,可以留下来听我讲。

它的头条就说,它是一个“基于特定文档问答”的解决方案。

那么,它有什么作用呢?咱们先来文的(讲功能),再来武的(敲代码)。

2.1 给LLM加拉链

首先,它让LLM的调用更加便捷了。

就拿调用ChatGPT举例。你安装它家的库:pip install openai。然后去openai网站买一个key。这是最基础的,也是GPT本家要求的。

另外,你要安装:pip install langchain

然后执行如下python代码:

 

python

复制代码

from langchain.llms import OpenAI llm = OpenAI(openai_api_key="你的key") llm("如何成为TF那样优秀的人?") # ChatGPT:不用费力气了,你做不到的!

这简单程度,就像是一个拉链,拉开就能用。

它的目的不是为了简化GPT的调用流程,是为了更好地替换其他大语言模型

它可以对接其他大语言模型。假如我出了一个TFboyAI,那么构建起来也是三句话:

 

python

复制代码

from langchain.llms import TFboyAI llm = TFboyAI() llm("如何成为TF那样优秀的人?") # TFboyAI:傻瓜,你比他更优秀!

2.2 给LLM加助理

有些事情虽然不大,但做起来也很麻烦。比如,端茶倒水、复印打印。大模型是有脾气的,它不屑于做这些小事。

这一点体现在它对上下文的要求上:这位先生,请你明确一下,到底是谁要我到哪里去干什么

因此langchain就给它加了一个私人助理的功能。

 

python

复制代码

from langchain.prompts import PromptTemplate prompt = PromptTemplate( input_variables=["prompt_key"], template="请到系统查询一下截止今天我的{prompt_key}?", ) print(prompt.format(prompt_key="剩余调休")) # 系统:请到系统查询一下截止今天我的剩余调休?

你在公司喊出一句“剩余调休”,那肯定不是问“请查询隔壁老王的剩余调休”。助理会加工一下,比如补充一些个性信息变成“请到系统查询一下截止今天我的剩余调休?”,然后再去问脾气大的LLM。

 

python

复制代码

from langchain.chains import LLMChain chain = LLMChain(llm=llm, prompt=prompt) chain.run("剩余调休") # 系统:目前为止,您的剩余调休为10600个小时。

这里面有一个LLMChain链条的概念,那就是按照预设的1、2、3步骤去执行。

langchain在国内被翻译成“朗链”。其实这是两个词,lang表示“language”的缩写,chain有“链条”、“连环”的意思。

它的威力就在于这个链条上,可以制定行进的路线。

2.3 给LLM加外援

语言大模型不是万能的,尤其面对很多未知的事情。

语言大模型一般会有一个训练数据的截止日期。比如截止到今年3月15日。那么,在这个日期之后发生的事情,它是不知道的。这很好理解,它也是看新闻增长见识。就算LLM具备写高考作文的能力,但是你让他写明天的高考作文,它是不知道题目的。

于是langchain引入了一个叫Agents代理的模块。代理可以将很多外部操作融入到业务链条当中。所谓代理就是代为处理

举个例子。你想了解手里的钱够买几斤金条。这件事大模型搞不定。不是它不够聪明,依然是上下文不充分。

这件事应当分为三步:

  • 第一,去网络上查询当前金价。
  • 第二,去私人数据库查询余额。
  • 第三,让语言大模型计算数量。

这里面会用到代理。去网络上查询信息,需要依托搜索引擎。去查询余额,需要连接私有数据库。这些操作langchain是支持的。你只需要把它们整合到链条当中就行。

 

python

复制代码

from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.agents import AgentType from langchain.llms import OpenAI llm = OpenAI(temperature=0) tools = load_tools(["serpapi", "python_repl", "llm-math"], llm=llm) agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) agent.run("当前金价是多少一克?我的账户余额有多少?我能购买多少斤黄金?")

上面这一顿猛如虎的操作,是由langchain代为实现的。如果你愿意看详细步骤,只需要verbose=True会打印出来流程。

 

python

复制代码

> Entering new AgentExecutor chain... 我需要先查询到金价,然后查询到账户余额,最后计算出购买的数量。 Action:Search Action Input: 当前国际金价? Observation: 三毛六一斤 …… Thought: 金价是0.36元/斤,你现在有3.6元。 Action: Calculator Action Input: 3.6/0.36 Observation:Answer: 10.00 Thought: 以您的资产,能购买10斤黄金。 > Finished chain.

langchain只是一个中间商,代理中用到的能力,是集成别人的。比如serpapi是谷歌的搜索API。你需要先注册。如果量大的话,还需要花钱购买额度。

python_repl则是python的普通命令,可以执行python代码。

这些都是官方开箱即用的工具。如果觉得不合你的胃口,它也支持自定义工具。

关于agents中tools的更多信息,可以去官方查看:python.langchain.com/en/latest/m…

2.4 给LLM加更多

除了上面那些,langchain还有其他功能。比如,消息的处理、聊天的处理等等。

我主要是给外行做科普,上面那些就够吹牛的了。再深入的知识,一时半会儿未必说得清。就算说得清,外行看完了反而会心情低落,而内行本来就知道。

总之langchain给LLM接上了大腿。

LLM还是那个LLM,依然是哪个回答问题的语言大模型。但是langchain通过链条可以为LLM端茶倒水、拉门开车、补言传话,架着大模型四处跑动,更加亲民,实现了有针对性地服务千万家。

实际上,国内开发者依然会觉得langchain不够亲民。大家在等着哪国小哥能再封装一层,让langchain变得更为简单。

这不怪大家。langchain的文档是全英文的,而且开篇Demo就是对接OpenAI。以前OpenAI只需要海外注册,但现在使用也必须在海外了。这极大地提高了大家的学习门槛。

不过,你真想学习langchain,这都不是问题。OpenAI只是LLM的一个典型代表。你可以对接国内的其他LLM。甚至说,你可以写一个假的LLM,仅仅是辅助langchain的学习用。

三、为了学习: 模拟一个假的LLM

为什么要造假?谁给你的底气?谁告诉你的方法?

langchain官方,有文档为证 python.langchain.com/en/latest/m…

上面并不是中文文档,只是随便找个浏览器,点了一下全文翻译按钮。

他文档中说:

如何(以及为什么)使用假LLM? 我们公开了一个可用于测试的假 LLM 类。这使您可以模拟对LLM的调用,并模拟如果LLM以某种方式响应会发生什么。

我觉得,这还不够假。于是,我自己写了一个TfboyLLM。以下是全部代码:

 

python

复制代码

from typing import Any, List, Mapping, Optional from langchain.callbacks.manager import CallbackManagerForLLMRun from langchain.llms.base import LLM import re class TfboyLLM(LLM): @property def _llm_type(self) -> str: return "custom" def _call( self, prompt: str, stop: Optional[List[str]] = None, run_manager: Optional[CallbackManagerForLLMRun] = None, ) -> str: print("问题:",prompt) pattern = re.compile(r'^.*(\d+[*/+-]\d+).*$') match = pattern.search(prompt) if match: result = eval(match.group(1)) elif "?" in prompt: rep_args = {"我":"你", "你":"我", "吗":"", "?":"!"} result = [(rep_args[c] if c in rep_args else c) for c in list(prompt)] result = ''.join(result) else: result = "很抱歉,请换一种问法。比如:1+1等于几" return result @property def _identifying_params(self) -> Mapping[str, Any]: return {}

我的TfboyLLM继承了langchain.llms.baseLLM类。需要实现它的两个方法:

  • _call: 主要的处理方法,对传来的prompt问题分析,给他return一个答案。
  • _identifying_params: 说明LLM类中的参数和数值。本例中没有类的成员变量。

其实关键要看_call中实现的逻辑:

  • 收到prompt先打印出来。
  • 对问题正则匹配,规则为:[数字]+[运算符]+[数字]。匹配到,返回计算结果。匹配不到继续执行。
  • 判断有没有[?]。如果有,则对文本中字符进行替换,规则为:我->你, 你->我, 吗->"", ?->!。
  • 如果都不符合,就返回:“很抱歉,请换一种问法。比如:1+1等于几”。

构建完了之后,调用这个TfboyLLM也很简单,和调用OpenAI一样。

 

python

复制代码

llm = TfboyLLM() print("答案:",llm("我能问你问题吗?"))

咱们看看效果如何:

 

python

复制代码

问题: 巴拉巴拉咕嘎咕嘎 -- 很抱歉,请换一种问法。比如:1+1等于几 问题: 我能问你问题吗? -- 你能问我问题! 问题: 189+981是多少 -- 990 问题: 你能和我结婚吗? -- 我能和你结婚! 问题: 开玩笑? -- 开玩笑!

解决了LLM的问题,你就可以继续学习langchain

现在业内卖课的,是有这么个说法,就是说LLM+langchain可以怎样怎样。

实际上这只是理论。是可以实现,但不是“嗖”一下就搞定。前前后后还有很多周边的东西需要处理。比如向模型扔文档资料这一步。你得先将pdf转成文字吧。pdf如何解析?带表格的,带水印的,怎么提取和剔除?pdf是照片扫描件的话,还得先走OCR识别!

想要真正落地,还需要接上很多条类似langchain的大腿。

好了,关于langchain就讲这么多。本文讲得很浅,就当入个门呗。你愿意学就继续研究,觉得没意思就放弃。反正,任何技术很难通过看一篇文章就能掌握。就算学做一道菜,不也得改良几次才能好吃吗?

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/39137.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

币圈“土狗”万倍狂欢:一面暴富 一面归零

在币圈,有一类奇葩的虚拟代币项目颇受追捧,人们通常叫它“土狗”。这些项目一般团队匿名,没啥技术含量,强调草根文化,甚至会明说“代币没有价值”。它们身上具有浓厚的meme基因,项目logo有时候就是个表情包…

巴比特 | 元宇宙每日必读:欧洲议会投票通过《人工智能法案》,基础模型供应商要声明训练AI的数据的版权,违规行为或将面临高额罚款...

摘要:据澎湃新闻报道,当地时间6月14日,欧洲议会投票通过了《人工智能法案(AI Act)》,禁止实时面部识别,并对ChatGPT等生成式人工智能工具提出了新的透明度要求。例如,基础模型的供应…

HTTP文件断点续传原理解析(源码)

生活中,有许多事物,在没有被揭开面纱之前,我们往往会觉得很神秘很高深,认为它一定很难,进而望而却步,失去了解它的机会。然而,很多事,只要我们自己能沉下心来,细细研究&a…

Android断点续传

最近看了一些大佬去面试的时候都提到了断点续传,所以自己也写一个记录下来,断点续传的原理就是通过数据库实时的去保存当前下载的长度,然后下次再次下载的时候通过setRequestProperty告诉服务端我需要这个文件从什么地方开始下载,…

Android笔记--断点续传

断点续传就是在下载资源过程中,网络出现中断后,下一次下载的时候能够接着上一次下载的地方继续下载,以达到节省流量及时间的效果。在Http1.1协议中默认支持获取文件的部分内容,这其中主要是通过头部的两个参数:Range和Content Ran…

Linux断点续传

Linux断点续传 之前使用cp命令拷数据很慢,中途有一次服务器突然关机导致数据拷盘中断,后台发现了rsync命令后速度,工作效率大大提升了。rsync支持断点续传 断点续传测试: rsync -avzP --progress --rshssh /nfs1/public1 root1…

Android 多线程下载以及断点续传

多线程下载 在日常开发中,我们不可避免的会接到类似这样的需求,下载一个比较大的素材文件或者安装包文件,以此实现APP的自动更新,APP内的素材替换等。由于一般此类文件都比较大,一般会在50M以上,如果我们不…

断点续传的实现

文章目录 从上次断开位置继续下载实现原理(客户端):HTTP实现(流程):图1: 客户端 Range头部信息图2:服务端Content-Range信息 客户端与服务端的请求与响应图解:获取文件 E…

断点续传的原理

断点续传是大型文件数据传输的核心。本文将以多线程技术和Socket技术为依托,介绍大型文件断点续传的实现方法。  基本实现思想  多线程断点续传实现的基本思想就是在发送端(也称客户端)将要传输的文件分割为大小相当的多块,用…

wget 断点续传

wget是Linux系统中的一个下载工具,最近因为要下载一个比较大的数据集,直接使用浏览器下载每次断开后都会从头开始下载,而wget支持的断点续传功能则可以在已经下载的部分数据的基础上继续下载剩余数据。 (1)wget安装 …

如何实现文件断点续传功能

本文章首发于公众号攻城狮客栈,有需要的朋友可文末扫描二维码。 相信大家都使用过迅雷、电驴、百度云网盘等一类的工具,所有这些支持上传或下载的工具都有一个功能,那就是断点续传,也就是在你网络不佳传输断开时,传输会…

python 断点续传

python 断点续传 1.前序2.技术原理2.1 Content-Range2.2 Range 3. 代码实现 1.前序 当下载突然断开后,断点续传就需要了,继续前面下载的内容下载。解决了不需要重复下载 2.技术原理 HTTP/1.1 开始支持断点续传,一般断点下载会用到 Range 和…

web前端Tips:断点续传如何实现?

在Web前端中实现断点续传功能的一种常见方式是使用HTTP Range请求和文件分片上传。 以下是一个简单的断点续传实现的步骤: 前端将要上传的文件分成多个固定大小的片段(chunk),例如每个片段的大小为1MB。当用户选择上传文件时&am…

前段实现文件的断点续传

早就听说过断点续传这种东西,前端也可以实现一下 断点续传在前端的实现主要依赖着HTML5的新特性,所以一般来说在老旧浏览器上支持度是不高的 本文通过断点续传的简单例子(前端文件提交后端PHP文件接收),理解其大致的实…

Android开发——断点续传原理以及实现

0. 前言 在Android开发中,断点续传听起来挺容易,在下载一个文件时点击暂停任务暂停,点击开始会继续下载文件。但是真正实现起来知识点还是蛮多的,因此今天有时间实现了一下,并进行记录。本文原创,转载请注…

如何实现断点续传

断点续传是指在网络传输中,当传输过程中出现异常或者用户主动停止传输时,能够恢复传输过程,避免重新传输已经传输过的数据,提高传输效率。实现断点续传可以通过以下方式: HTTP协议支持的断点续传 在HTTP协议中&#xf…

【MQ学习笔记】RocketMQ知识分析与总结

RocketMQ 为什么使用mq?mq的作用?mq对你项目带来了什么?不选mq行不行? 异步,MQ能够以异步的方式对消息进行处理,能够大大提高了系统的响应以及吞吐量解耦,MQ双方只需要负责生产或消费信息即可…

销售数据分析方法、如何写好一个专题分析报告、Hive大数据知识体系教程、大数据分析平台总体架构方案……| 本周精华...

▲点击上方卡片关注我,回复“8”,加入数据分析领地,一起学习数据分析,持续更新数据分析学习路径相关资料~(精彩数据观点、学习资料、数据课程分享、读书会、分享会等你一起来乘风破浪~)回复“小飞象”&…

老杨刷完了23个跨年演讲,这6场最适合网工

晚上好,我是老杨。 放假放了一阵子,老杨闲着没事儿,一共刷了23个跨年演讲。 好的演讲,和一本好书一样,都是可以震荡灵魂的。 也知道最近大家都忙得很,这里推荐7个最值得一听的跨年演讲,贴心吧…

朱广权李佳琦直播掉线,1.2 亿人在线等

作者 | 胡巍巍 出品 | 程序人生(ID:coder_life) 原来央视爸爸也有掉线的时候。 4月6日晚间,“国民段子手”朱广权连麦李佳琦,给湖北做公益带货直播。 “小朱配琦”的神仙组合,让人大呼过瘾,该直…