基于GPT3.5实现本地知识库解决方案-利用向量数据库和GPT向量接口-实现智能回复并限制ChatGPT回答的范围...

标题有点长,但是基本也说明出了这篇文章的主旨,那就是利用GPT AI智能回答自己设置好的问题

既能实现自己的AI知识库机器人,又能节省ChatGPT调用的token成本费用。

代码仓库地址

document.ai: 基于GPT3.5的通用本地知识库解决方案

下面图片是整个流程:

flow.png

导入知识库数据

利用openai的向量接口生成向量数据,然后导入到向量数据库qdrant

这段代码会将指定目录下的所有文件读取出来,然后将文件中的文本内容进行分割,分割后的结果会被传入到 

to_embeddings函数中,该函数会使用 OpenAI 的 API 将文本内容转换为向量。最后,将向量和文件名、文件内容一起作为一个文档插入到 Qdrant 数据库中。

具体来说,这段代码会遍历 ./source_data目录下的所有文件,对于每个文件,它会读取文件内容,然后将文件内容按照 #####进行分割

分割后的结果会被传入到 to_embeddings函数中。

to_embeddings函数会使用 OpenAI 的 API 将文本内容转换为向量,最后返回一个包含文件名、文件内容和向量的列表。

接下来,将向量和文件名、文件内容一起作为一个文档插入到 Qdrant 数据库中。

其中,count变量用于记录插入的文档数量,client.upsert函数用于将文档插入到 Qdrant 数据库中。

需要在目录里创建.env文件,里面放OPENAI_API_KEY

OPENAI_API_KEY=sk-Zxxxxxxxxddddddddd

from qdrant_client import QdrantClient
from qdrant_client.http.models import Distance, VectorParams
from qdrant_client.http.models import PointStruct
from dotenv import load_dotenv
import os
import tqdm
import openaidef to_embeddings(items):sentence_embeddings = openai.Embedding.create(model="text-embedding-ada-002",input=items[1])return [items[0], items[1], sentence_embeddings["data"][0]["embedding"]]if __name__ == '__main__':client = QdrantClient("127.0.0.1", port=6333)collection_name = "data_collection"load_dotenv()openai.api_key = os.getenv("OPENAI_API_KEY")# 创建collectionclient.recreate_collection(collection_name=collection_name,vectors_config=VectorParams(size=1536, distance=Distance.COSINE),)count = 0for root, dirs, files in os.walk("./source_data"):for file in tqdm.tqdm(files):file_path = os.path.join(root, file)with open(file_path, 'r', encoding='utf-8') as f:text = f.read()parts = text.split('#####')item = to_embeddings(parts)client.upsert(collection_name=collection_name,wait=True,points=[PointStruct(id=count, vector=item[2], payload={"title": item[0], "text": item[1]}),],)count += 1

查询知识库数据

这是一个基于flask的web应用,主要功能是根据用户输入的问题,从Qdrant中搜索相关的文本,然后使用openai的ChatCompletion API进行对话生成,最后将生成的回答返回给用户。

from flask import Flask
from flask import render_template
from flask import request
from dotenv import load_dotenv
from qdrant_client import QdrantClient
import openai
import osapp = Flask(__name__)def prompt(question, answers):"""生成对话的示例提示语句,格式如下:demo_q:使用以下段落来回答问题,如果段落内容不相关就返回未查到相关信息:"成人头疼,流鼻涕是感冒还是过敏?"1. 普通感冒:您会出现喉咙发痒或喉咙痛,流鼻涕,流清澈的稀鼻涕(液体),有时轻度发热。2. 常年过敏:症状包括鼻塞或流鼻涕,鼻、口或喉咙发痒,眼睛流泪、发红、发痒、肿胀,打喷嚏。demo_a:成人出现头痛和流鼻涕的症状,可能是由于普通感冒或常年过敏引起的。如果病人出现咽喉痛和咳嗽,感冒的可能性比较大;而如果出现口、喉咙发痒、眼睛肿胀等症状,常年过敏的可能性比较大。system:你是一个医院问诊机器人"""demo_q = '使用以下段落来回答问题:"成人头疼,流鼻涕是感冒还是过敏?"\n1. 普通感冒:您会出现喉咙发痒或喉咙痛,流鼻涕,流清澈的稀鼻涕(液体),有时轻度发热。\n2. 常年过敏:症状包括鼻塞或流鼻涕,鼻、口或喉咙发痒,眼睛流泪、发红、发痒、肿胀,打喷嚏。'demo_a = '成人出现头痛和流鼻涕的症状,可能是由于普通感冒或常年过敏引起的。如果病人出现咽喉痛和咳嗽,感冒的可能性比较大;而如果出现口、喉咙发痒、眼睛肿胀等症状,常年过敏的可能性比较大。'system = '你是一个医院问诊机器人'q = '使用以下段落来回答问题,如果段落内容不相关就返回未查到相关信息:"'q += question + '"'# 带有索引的格式for index, answer in enumerate(answers):q += str(index + 1) + '. ' + str(answer['title']) + ': ' + str(answer['text']) + '\n'"""system:代表的是你要让GPT生成内容的方向,在这个案例中我要让GPT生成的内容是医院问诊机器人的回答,所以我把system设置为医院问诊机器人前面的user和assistant是我自己定义的,代表的是用户和医院问诊机器人的示例对话,主要规范输入和输出格式下面的user代表的是实际的提问"""res = [{'role': 'system', 'content': system},{'role': 'user', 'content': demo_q},{'role': 'assistant', 'content': demo_a},{'role': 'user', 'content': q},]return resdef query(text):"""执行逻辑:首先使用openai的Embedding API将输入的文本转换为向量然后使用Qdrant的search API进行搜索,搜索结果中包含了向量和payloadpayload中包含了title和text,title是疾病的标题,text是摘要最后使用openai的ChatCompletion API进行对话生成"""client = QdrantClient("127.0.0.1", port=6333)collection_name = "data_collection"load_dotenv()openai.api_key = os.getenv("OPENAI_API_KEY")sentence_embeddings = openai.Embedding.create(model="text-embedding-ada-002",input=text)"""因为提示词的长度有限,所以我只取了搜索结果的前三个,如果想要更多的搜索结果,可以把limit设置为更大的值"""search_result = client.search(collection_name=collection_name,query_vector=sentence_embeddings["data"][0]["embedding"],limit=3,search_params={"exact": False, "hnsw_ef": 128})answers = []tags = []"""因为提示词的长度有限,每个匹配的相关摘要我在这里只取了前300个字符,如果想要更多的相关摘要,可以把这里的300改为更大的值"""for result in search_result:if len(result.payload["text"]) > 300:summary = result.payload["text"][:300]else:summary = result.payload["text"]answers.append({"title": result.payload["title"], "text": summary})completion = openai.ChatCompletion.create(temperature=0.7,model="gpt-3.5-turbo",messages=prompt(text, answers),)return {"answer": completion.choices[0].message.content,"tags": tags,}@app.route('/')
def hello_world():return render_template('index.html')@app.route('/search', methods=['POST'])
def search():data = request.get_json()search = data['search']res = query(search)return {"code": 200,"data": {"search": search,"answer": res["answer"],"tags": res["tags"],},}if __name__ == '__main__':app.run(host='0.0.0.0', port=3000)

原文地址:https://gofly.v1kf.com/article/40

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/56825.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

英语语法大全

文章目录 一、主语1、名词、代词和动词做主语2、主语从句做主语,谓语动词用单数3、主语从句练习 二、谓语动词1、谓语动词种类2、主谓一致 三、宾语1、单宾语2、双宾语3、复合宾语4、宾语从句 四、定语1、定语从句2、定语从句的翻译 五、状语1、分词做状语2、独立主…

规模效应和网络效应

前几天小米造车、华为造车、大疆造车、滴滴造车、百度造车集中PR。群中讨论智能新能源汽车的未来集中。甚至延伸讨论到了:云计算的未来集中度、SaaS的未来集中度。怎么能提高行业集中度,是我们都在苦苦思考的。 于是就讨论到两个词:规模效应、…

真*加班狗聚众舔福豹《打工人的那些事》

真*加班狗聚众舔福豹《打工人的那些事》 文章目录 近日的杭州金钱豹外逃新闻,相信大家都听说了。 没看过的也不急,我在这里帮大家简单理一理。 根据杭州市富阳区8日官方发布,5月7日20时许,群众报警称在富阳区银湖街道受降四联村…

国内“风口”转变,中国游戏公司纷纷“外逃”,东南亚是个好去处

中国游戏开发商正在加强对国际市场,特别是东南亚市场的承诺,因为他们的国内公司正在努力应对更困难的中国市场,以便实施在下一阶段发展布局。 根据移动应用市场情报公司Sensor Tower的一份报告,按收入排名的前100名全球移动游戏中…

chatgpt赋能python:Python编译成库的利与弊

Python编译成库的利与弊 Python作为一种高级编程语言,具有简洁易读的语法和强大的生态系统,在数据科学、Web开发、游戏开发等领域得到广泛应用。然而,Python解释器的执行效率较低,因此为了提高Python程序的性能,常使用…

产业大模型刚开卷,京东跑进“最后半公里”

点击关注 文|姚 悦 编|王一粟 “京东一直在探索哪些产品、技术、场景可以真正把大模型用起来,在我们内部的场景中反复验证后,才决定在7月份对外发布,现在我们在零售、健康、物流、金融等业务场景里已经积累了一些经…

赠书 | 写作、绘画、游戏、音视频编辑…AIGC为内容生产带来了什么?

文中有数据派THU福利哦 当AIGC产品不断涌向社会,人们纷纷认为美图app“危了“的时候,美图公司创始人兼首席执行官吴欣鸿表示,影像和 AIGC 的创新结合,将带来影像生产力的大爆发,同时会为相关领域带来新的职业和新的创业…

中文公开聊天语料库

源 / 专知 语料内容 该库搜集了包含chatterbot、豆瓣多轮、PTT八卦语料、青云语料、电视剧对白语料、贴吧论坛回帖语料、微博语料小黄鸡语料共8个公开闲聊常用语料和短信,并对其进行了统一化规整和处理,达到直接可以粗略使用的目的。 使用方法 语料下载&…

获得文本语料和词汇资源(基于nltk)

在自然语言处理的实际项目中,通常要使用大量的语言数据或者语料库。本章的目的是要回答下列问题: 什么是有用的文本语料和词汇资源,我们如何使用 Python 获取它们?哪些 Python 结构最适合这项工作?编写 Python 代码时…

NLP领域中文对话系统数据集总结(有下载地址)

一、豆瓣多轮对话数据集 1、简介: 测试数据包含 1000 个对话上下文,对于每个上下文,创建 10 个响应作为候选。正确的响应意味着响应可以自然地回复给定上下文的消息。每对收到三个标签,大多数标签被视为最终决定。 2、数据格式&…

肠道病毒组识别早产儿坏死性小肠结肠炎发病前的特异性病毒特征

期刊:Nature microbiology 影响因子:30.964 发表时间:2022 样本类型:粪便样本 研究背景 坏死性小肠结肠炎(NEC)是早产的严重后果,通常与肠道细菌微生物群的改变有关。然…

新型病毒来了【PcaPatchDbTask】

急报!!新型病毒来了【PcaPatchDbTask】 1.什么是PcaPatchDbTask PcaPatchDbTask是一种新型的木马 2.PcaPatchDbTask的危害 【1】他会劫持你的浏览器主页 【2】他会读取你的键盘信息 【3】他会获取你电脑的联系人菜单 【4】它甚至不会被安全软件查杀 3.…

Nature Reviews:给医生的菌群分析指南(下)

本文转载自“态昌基因”,己获授权。 Nature Reviews:给医生的菌群分析指南(上),主要从实验阶段介绍了以下7方面,不清楚的请点击链接跳转原文阅读。 1. 样本选择 2. 样本的采集 3. 样本的保存与保护剂 4. DNA提取 5.我到…

关于儿童急性感染性腹泻

腹泻是一种常见的症状,可导致儿童生长发育迟滞和营养不良。根据世界卫生组织(WHO)发布的数据显示,急性腹泻在5岁以下儿童死亡原因中排第二位,仅次于肺炎。引起儿童腹泻的原因包括感染和非感染因素,后者主要…

MPO抗体对丨CalBioreagents 中英文说明书

艾美捷CalBioreagents MPO抗体对英文参数说明: CATALOG NUMBER: M684 PRODUCT DESCRIPTION: Mouse Monoclonal anti-human Insulin IMMUNOGEN: Purified human MPO IMMUNOGLOBULIN ISOTYPE: IgG1 PURIFICATION: Purified by DEAE chromatography. BUFFER: Sup…

PICRUSt2菌群功能预测分析

生科云网址:https://www.bioincloud.tech 01 课程简介 PICRUSt2的原理是基于已测微生物基因组的序列,推断它们的共同祖先的基因功能谱,对数据库中其它未测物种(基因组未知)的基因功能谱进行推断,构建微生物…

病毒组学数据分析 -03 CheckV病毒序列识别

CheckV 是一个完全自动化的命令行管道,用于评估单重叠群病毒基因组的质量,包括识别集成原病毒的宿主污染、估计基因组片段的完整性以及识别封闭基因组。 管道可以分为4个主要步骤:A:去除原噬菌体上的宿主污染 根据与自定义 HMM 数…

新冠病毒分型和突变分析(SARS-CoV2_ARTIC_Illumina)

SARS-CoV2_ARTIC_Illumina新冠病毒分型和突变分析 一. 本文适用于使用Artic扩增子扩增,Illumina双端测序,用于分析新冠病毒突变及分型鉴定 二. 概览:按照惯例,先上一张概览图 流程输入SRR22216743_1.fastq.gz SRR22216743_2.fas…

还真不错,今天 Chatgpt 教会我如何开发一款小工具开发(Python 代码实现)

上次使用 Chatgpt 写爬虫,虽然写出来的代码很多需要修改后才能运行,但Chatgpt提供的思路和框架都是没问题。 这次让 Chatgpt 写一写GUI程序,也就是你常看到的桌面图形程序。 由于第一次测试,就来个简单点的,用Python…

Android中文图混排时文图的居中对齐

http://www.jianshu.com/p/2650357f7547 先上效果图 看订阅号时间发现的,前一阵子项目要做一个比较复杂的图文混排,但是最后没有做,今天看到,回过头来学习下 代码还是他们的代码,我就不复制了 下来说一下这种形式…