Ollama0.3.0 + llama3.1本地部署
安装Ollama
官网下载安装包
https://ollama.com/download
根据系统选择对应版本
安装完成后,电脑右下角会出现ollama程序图标,表示ollama正在运行。
打开cmd命令
下载Llama3.1
输入ollama,如果出现下图表示安装没问题,然后输入ollama pull llama3.1
命令,安装最新的llama3.1版本模型,程序有4.7GB,需要下载一段时间
运行
打开jupyter notebook,输入代码进行测试
from langchain_ollama import ChatOllamallm = ChatOllama(model="llama3.1",temperature=0,
)template = "你好,我有一个帽衫"
res = llm.invoke(template)print(res)
可以看到,刚才下载的本地模型已经成功运行了。
Function Calling
2024年7月25号,Ollama发布0.3.0版本,该版本正式支持了Function Calling,我们测试下
from langchain_core.tools import tool@tool
def add(first_int: int, second_int: int) -> int:"""将两个数相加。"""return first_int + second_inttools = [add]llm_with_tools = llm.bind_tools(tools)res = llm_with_tools.invoke("1+2等于多少")print(res)
可以看到,模型已经成功识别了自定义的add工具,并返回了工具调用的Schema