NVIDIA NIM是一套易于使用的推理微服务,旨在加速企业中性能优化的生成式 AI 模型的部署。
NIM 推理微服务可以部署在任何地方,从工作站和本地到云,提供企业控制自己的部署选择并确保数据安全。它还提供行业领先的延迟和吞吐量,实现经济高效的扩展,并为最终用户提供无缝体验。
我们可以访问适用于 Llama 3 8B Instruct 和 Llama 3 70B Instruct 模型的 NIM 推理微服务,以便在任何 NVIDIA 加速的基础设施上进行自托管部署。包含用于训练、自定义、检索增强生成(RAG)、guardrails、toolkits、数据 curation 和模型预训练的工具。
点击“Try Now”即可跳转到一个NIM平台的列表中,可以看到有大概133个Models,非常的多,而且可以自己在分类中搜索想要的分类,可以查看一下每个模型的详情,在这个界面我们能看到多种基于 NIM 平台的AI模型,接下来我们将介绍其中之一的大语言模型,构建我们的知识问答系统。
点击Login,通过邮箱注册注意一下邮箱接收一下验证码之后,验证完成之后:
弹框一个界面,需要填写用户名,填写完成用户名后,点击创建新账户即可。
注册成功后,可以在右上角查看我们的免费的次数:
创建成功后,将会返回 NIM 平台的主页面,到这里您就用有了 NVIDIA云账户 。再次点击右上角按钮,可以看到剩余免费额度,点击Request More 可以进行企业用户认证,获取更多使用额度
以上就是账号的注册,可以看到只需要简单的邮箱几步就可以完成注册的功能。
接下来,需要使用到python语言,提前需要具备一下python的知识,这里我们通过pyCharm来进行创建一个python的项目:
创建成功后,因为运行python代码需要进行安装库与依赖包,需要安装以下库和依赖包:
pip install langchain_nvidia_ai_endpoints langchain-community langchain-text-splitters faiss-cpu gradio==3.50.0 setuptools beautifulsoup4
安装完后成,创建一个python文件,里面的内容:
# -*- coding: utf-8 -*-# 导入必要的库
from langchain_nvidia_ai_endpoints import NVIDIAEmbeddings, ChatNVIDIA
from langchain_community.document_loaders import WebBaseLoader
from langchain_community.vectorstores import FAISS
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import chain
import os
import gradio as gr
from datetime import datetime
# Even if you do not know the full answer, generate a one-paragraph hypothetical answer to the below question in Chinese
# 定义假设性回答模板
hyde_template = """Even if you do not know the full answer, generate a one-paragraph hypothetical answer to the below question:{question}"""# 定义最终回答模板
template = """Answer the question based only on the following context:
{context}Question: {question}
"""# 定义函数来处理问题
def process_question(url, api_key, model_name, question):# 初始化加载器并加载数据loader = WebBaseLoader(url)docs = loader.load()# 设置环境变量os.environ['NVIDIA_API_KEY'] = api_key# 初始化嵌入层embeddings = NVIDIAEmbeddings()text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)documents = text_splitter.split_documents(docs)vector = FAISS.from_documents(documents, embeddings)retriever = vector.as_retriever()# 初始化模型model = ChatNVIDIA(model=model_name)# 创建提示模板hyde_prompt = ChatPromptTemplate.from_template(hyde_template)hyde_query_transformer = hyde_prompt | model | StrOutputParser()# 定义检索函数@chaindef hyde_retriever(question):hypothetical_document = hyde_query_transformer.invoke({"question": question})return retriever.invoke(hypothetical_document)# 定义最终回答链prompt = ChatPromptTemplate.from_template(template)answer_chain = prompt | model | StrOutputParser()@chaindef final_chain(question):documents = hyde_retriever.invoke(question)response = ""for s in answer_chain.stream({"question": question, "context": documents}):response += sreturn response# 调用最终链获取答案return str(datetime.now())+final_chain.invoke(question)# 定义可用的模型列表
models = ["mistralai/mistral-7b-instruct-v0.2","meta/llama-3.1-405b-instruct"]# 启动Gradio应用
iface = gr.Interface(fn=process_question,inputs=[gr.Textbox(label="输入需要学习的网址"),gr.Textbox(label="NVIDIA API Key"),gr.Dropdown(models, label="选择语言模型"),gr.Textbox(label="输入问题")],outputs="text",title="网页知识问答系统"
)# 启动Gradio界面
iface.launch()
这是一个基于NVIDIA语言模型和网页数据的知识问答系统。用户可以输入需要学习的网址和NVIDIA API密钥,选择适合的语言模型并输入问题,系统将基于提供的网页数据和问题生成假设性的回答,并返回最终的结果。用户可以在界面上直接与系统交互,获取问题的答案。
上面的代码是一个基于Gradio和NVIDIA语言模型的知识问答系统。让我来逐步解释每部分的内容:
-
- 首先,定义了假设性回答模板和最终回答模板,用于生成假设性答案和最终答案的格式化输出。
-
- 接下来,定义了一个处理问题的函数process_question,该函数接收网址、NVIDIA API密钥、语言模型和问题作为输入,并执行以下步骤:
- 初始化加载器并加载网页数据
- 设置环境变量
- 初始化NVIDIA嵌入层和文本分割器
- 创建嵌入模型、检索器和对话模型
- 定义检索函数hyde_retriever和最终回答链final_chain
- 调用最终链获取答案并返回结果
-
- 然后定义了可用的语言模型列表models,用户可以在Gradio界面上选择语言模型。
-
- 最后,创建了一个Gradio界面iface,使用process_question函数作为后端处理函数,输入包括学习网址、NVIDIA API密钥、语言模型和问题,输出为文本格式的回答。用户可以在Gradio界面上输入问题,并获取系统生成的回答。
整个代码实现了一个用户友好的网页知识问答系统,用户可以通过输入问题,获取基于提供的网页数据和NVIDIA语言模型的答案。Gradio提供了一个直观的界面,使用户能够轻松地与系统交互。
2. 如何查找key?
随便找一个模型,例如我这里使用的是meta / llama-3.1-405b-instruct模型,点击这个模型:
详情里面,可以看到提供了不少语言的Demo示例,比如我们这里常用的python代码,点击“Get API Key”即可获取相关的key Code,
生成的Code点击Copy一下就行:
在打开的浏览器中填入上面复制的 API 密钥、需要学习的网页地址、使用的语言模型以及提出的问题后,点击submit,等待一段时间 即可看到回答的信息。
3. 如何使用API接口呢?
BluePrint
申请地址
https://build.nvidia.com/google/google-deplot?snippet_tab=Python
模型介绍
将统计图表转换为数据结构json格式
# 导入requests库和base64编码库
import requests, base64# 设置推理URL和流式传输标志
invoke_url = "https://ai.api.nvidia.com/v1/vlm/google/deplot"
stream = True# 以二进制模式打开图像文件并进行base64编码
with open("economic-assistance-chart.png", "rb") as f:image_b64 = base64.b64encode(f.read()).decode()# 确保编码后的图像大小小于180,000字节,否则需要使用资产API
assert len(image_b64) < 180_000, \"To upload larger images, use the assets API (see docs)"# 准备请求头,需要API密钥进行身份验证
headers = {"Authorization": "Bearer $API_KEY_REQUIRED_IF_EXECUTING_OUTSIDE_NGC","Accept": "text/event-stream" if stream else "application/json"
}# 准备请求负载,包含用户消息、最大令牌数、温度等参数
payload = {"messages": [{"role": "user","content": f'Generate underlying data table of the figure below: <img src="data:image/png;base64,{image_b64}" />'}],"max_tokens": 1024,"temperature": 0.20,"top_p": 0.20,"stream": stream
}# 发送POST请求到指定的推理URL
response = requests.post(invoke_url, headers=headers, json=payload)# 根据是否开启流式传输,处理响应
if stream:for line in response.iter_lines():if line:print(line.decode("utf-8"))
else:print(response.json())
使用一张图表:
在上传大图片时,需要注意一下,有容量限制一下:
Traceback (most recent call last):File "test1.py", line 13, in <module>assert len(image_b64) < 180_000, \
AssertionError: To upload larger images, use the assets API (see docs)
可以看到从文字类的图表excel也是可以识别到的: