大语言模型 智能助手——既能生成自然语言回复,又能在必要时调用外部工具获取实时数据

示例代码:

import json
from langgraph.graph import Graph, END,StateGraph
from langchain_core.utils.function_calling import convert_to_openai_function
from langchain_community.tools.openweathermap import OpenWeatherMapQueryRun
from langchain_core.messages import HumanMessage, ToolMessage
from langgraph.prebuilt import ToolInvocation, ToolNode,ToolExecutor  # 引入 ToolNodetools = [OpenWeatherMapQueryRun()]model = ChatOpenAI(openai_api_base=OPENAI_API_BASE,openai_api_key=OPENAI_API_KEY,temperature=0)functions = [convert_to_openai_function(t) for t in tools]model = model.bind_tools(functions)def function_1(state):messages = state['messages']response = model.invoke(messages)return {"messages": [response]}tool_executor = ToolExecutor(tools)def function_2(state):messages = state['messages']last_message = messages[-1]  # 取最后一条消息,获取要发送给工具的查询print('last_message===\n',last_message)# 确保 tool_calls 存在且为非空列表tool_calls = last_message.additional_kwargs.get("tool_calls", [])if tool_calls:function_data = tool_calls[0].get("function", {})  # 获取 function 字典arguments_str = function_data.get("arguments", "{}")  # 获取 arguments JSON 字符串parsed_tool_input = json.loads(arguments_str)  # 解析 JSONprint('parsed_tool_input===\n', parsed_tool_input)tool_call_id=tool_calls[0]["id"]else:print("Warning: tool_calls is empty.")print('function_data===\n',function_data,function_data["name"])print('parsed_tool_input===\n',parsed_tool_input,parsed_tool_input['location'])# 构造 ToolInvocationaction = ToolInvocation(tool=function_data["name"],tool_input=parsed_tool_input['location'],)# 使用 tool_executor 处理请求response = tool_executor.invoke(action)print('response===\n',response,'\n',action.tool)# 构造 FunctionMessagefunction_message = ToolMessage(response, tool_call_id=tool_call_id)# 返回消息列表return {"messages": [function_message]}def where_to_go(state):messages = state['messages']last_message = messages[-1]if "tool_calls" in last_message.additional_kwargs:return "continue"else:return "end"# from langgraph.graph import Graph, END
# workflow = Graph()# Or you could import StateGraph and pass AgentState to it
workflow = StateGraph(AgentState)workflow.add_node("agent", function_1)
workflow.add_node("tool", function_2)# The conditional edge requires the following info below.
# First, we define the start node. We use `agent`.
# This means these are the edges taken after the `agent` node is called.
# Next, we pass in the function that will determine which node is called next, in our case where_to_go().workflow.add_conditional_edges("agent", where_to_go,{   # Based on the return from where_to_go# If return is "continue" then we call the tool node."continue": "tool",# Otherwise we finish. END is a special node marking that the graph should finish."end": END}
)# We now add a normal edge from `tools` to `agent`.
# This means that if `tool` is called, then it has to call the 'agent' next. 
workflow.add_edge('tool', 'agent')# Basically, agent node has the option to call a tool node based on a condition, 
# whereas tool node must call the agent in all cases based on this setup.workflow.set_entry_point("agent")app = workflow.compile()inputs = {"messages": [HumanMessage(content="what is the temperature in las vegas?")]} # what is the temperature in las vegas
result = app.invoke(inputs)
print('type result=====\n\n\n',type(result))
print('result=====\n\n\n',result)

输出:

last_message===content='' additional_kwargs={'tool_calls': [{'id': 'chatcmpl-c8tdWcPD6h68XZXYEX3I1lIDLPZn6', 'function': {'arguments': '{"location":"Las Vegas"}', 'name': 'open_weather_map'}, 'type': 'function'}], 'refusal': None} response_metadata={'token_usage': {'completion_tokens': 16, 'prompt_tokens': 80, 'total_tokens': 96, 'completion_tokens_details': None, 'prompt_tokens_details': None}, 'model_name': 'gpt-3.5-turbo', 'system_fingerprint': 'fp_0165350fbb', 'finish_reason': 'tool_calls', 'logprobs': None} id='run-53715c56-b036-4721-a09e-376a950fbf5c-0' tool_calls=[{'name': 'open_weather_map', 'args': {'location': 'Las Vegas'}, 'id': 'chatcmpl-c8tdWcPD6h68XZXYEX3I1lIDLPZn6', 'type': 'tool_call'}] usage_metadata={'input_tokens': 80, 'output_tokens': 16, 'total_tokens': 96, 'input_token_details': {}, 'output_token_details': {}}
parsed_tool_input==={'location': 'Las Vegas'}
function_data==={'arguments': '{"location":"Las Vegas"}', 'name': 'open_weather_map'} open_weather_map
parsed_tool_input==={'location': 'Las Vegas'} Las Vegasaction = ToolInvocation(
response===In Las Vegas, the current weather is as follows:
Detailed status: clear sky
Wind speed: 5.36 m/s, direction: 0°
Humidity: 35%
Temperature: - Current: 13.53°C- High: 14.51°C- Low: 10.88°C- Feels like: 11.85°C
Rain: {}
Heat index: None
Cloud cover: 0% open_weather_map
type result=====<class 'langgraph.pregel.io.AddableValuesDict'>
result====={'messages': [HumanMessage(content='what is the temperature in las vegas?', additional_kwargs={}, response_metadata={}), AIMessage(content='', additional_kwargs={'tool_calls': [{'id': 'chatcmpl-c8tdWcPD6h68XZXYEX3I1lIDLPZn6', 'function': {'arguments': '{"location":"Las Vegas"}', 'name': 'open_weather_map'}, 'type': 'function'}], 'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 16, 'prompt_tokens': 80, 'total_tokens': 96, 'completion_tokens_details': None, 'prompt_tokens_details': None}, 'model_name': 'gpt-3.5-turbo', 'system_fingerprint': 'fp_0165350fbb', 'finish_reason': 'tool_calls', 'logprobs': None}, id='run-53715c56-b036-4721-a09e-376a950fbf5c-0', tool_calls=[{'name': 'open_weather_map', 'args': {'location': 'Las Vegas'}, 'id': 'chatcmpl-c8tdWcPD6h68XZXYEX3I1lIDLPZn6', 'type': 'tool_call'}], usage_metadata={'input_tokens': 80, 'output_tokens': 16, 'total_tokens': 96, 'input_token_details': {}, 'output_token_details': {}}), ToolMessage(content='In Las Vegas, the current weather is as follows:\nDetailed status: clear sky\nWind speed: 5.36 m/s, direction: 0°\nHumidity: 35%\nTemperature: \n  - Current: 13.53°C\n  - High: 14.51°C\n  - Low: 10.88°C\n  - Feels like: 11.85°C\nRain: {}\nHeat index: None\nCloud cover: 0%', tool_call_id='chatcmpl-c8tdWcPD6h68XZXYEX3I1lIDLPZn6'), AIMessage(content='The current temperature in Las Vegas is 13.53°C.', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 14, 'prompt_tokens': 203, 'total_tokens': 217, 'completion_tokens_details': None, 'prompt_tokens_details': None}, 'model_name': 'gpt-3.5-turbo', 'system_fingerprint': 'fp_0165350fbb', 'finish_reason': 'stop', 'logprobs': None}, id='run-d115a20e-e9fd-4ac4-bda3-2c2fbc433dad-0', usage_metadata={'input_tokens': 203, 'output_tokens': 14, 'total_tokens': 217, 'input_token_details': {}, 'output_token_details': {}})]}

补充代码输出最后一个消息:

# 取出 messages 列表中第一个消息对象
first_msg = result["messages"][-1]# 获取第一个消息的 content 属性
first_content = first_msg.content# 打印第一个消息的内容
print(first_content)

输出:

The current temperature in Las Vegas is 13.53°C.

下面解释这段代码的含义,并用通俗的语言和例子来说明每个部分是如何工作的。


1. 导入依赖库

import json
  • 作用:引入 Python 内置的 json 模块,用于将 Python 数据结构(如字典)转换为 JSON 格式的字符串,或将 JSON 字符串解析回 Python 数据结构。
  • 举例:比如,当你从 API 得到返回的 JSON 字符串 {"location": "las vegas"},你可以使用 json.loads() 将它转换成字典,然后取出 "location" 对应的值。
from langgraph.graph import Graph, END, StateGraph
  • 作用:从 langgraph.graph 模块中导入了三个组件:
    • Graph:构建工作流图的基础类。
    • END:常量,用于标记工作流结束节点
    • StateGraph:基于状态的工作流图,用来描述多个步骤之间的转移。
  • 举例:你可以把整个对话过程看作一张流程图,每一步(节点)负责处理一部分逻辑,而 END 就表示对话结束。
from langchain_core.utils.function_calling import convert_to_openai_function
  • 作用:引入一个函数 convert_to_openai_function,用来将工具对象转换成 OpenAI 可调用的函数格式。
  • 举例:假如你有一个天气查询工具,通过转换后,语言模型就可以“知道”如何调用这个工具来查询天气信息。
from langchain_community.tools.openweathermap import OpenWeatherMapQueryRun
  • 作用:导入 OpenWeatherMapQueryRun 类,这是一个用于调用 OpenWeatherMap API 查询天气数据的工具。
  • 举例:当你需要知道某个城市的当前温度时,就会使用这个工具发送请求,获取实际的天气数据。
from langchain_core.messages import HumanMessage, ToolMessage
  • 作用:导入两种消息类型:
    • HumanMessage:表示用户输入的消息。
    • ToolMessage:表示工具调用返回的消息。
  • 举例:当用户发送“what is the temperature in las vegas?”时,会封装成一个 HumanMessage;当工具返回温度结果时,会封装成一个 ToolMessage
from langgraph.prebuilt import ToolInvocation, ToolExecutor  # 引入 ToolNode
  • 作用:从 langgraph.prebuilt 导入几个用于工具调用的类:
    • ToolInvocation:用于构造一个工具调用的描述(包括工具名称和输入参数)。
    • ToolExecutor:执行工具调用的执行器。
  • 举例:当语言模型决定需要查询天气时,会生成一个 ToolInvocation 对象,然后 ToolExecutor 根据这个对象去实际调用 OpenWeatherMap API。

2. 配置工具和模型

tools = [OpenWeatherMapQueryRun()]
  • 作用:创建一个列表,里面放了一个 OpenWeatherMapQueryRun 的实例。这样我们就有一个可以查询天气的工具。
  • 举例:假设你需要查询“las vegas”的天气,后续就会调用这个工具来获取数据。
model = ChatOpenAI(openai_api_base=OPENAI_API_BASE,openai_api_key=OPENAI_API_KEY,temperature=0)
  • 作用:初始化一个聊天模型 ChatOpenAI(这里需要你事先定义或导入这个类)。传入 API 的基础地址、密钥,并设置 temperature 为 0 表示生成结果将更确定、不会有随机性。
  • 举例:当你向这个模型发送询问消息时(比如“las vegas 的温度是多少?”),模型会根据提示生成回复或决定是否调用工具查询
functions = [convert_to_openai_function(t) for t in tools]
  • 作用:遍历之前定义的 tools 列表,将每个工具对象转换成 OpenAI 可调用的函数格式,保存到 functions 列表中。
  • 举例:转换后的函数可以嵌入到模型生成的函数调用建议中,比如生成一段 JSON 指示“调用 OpenWeatherMapQueryRun 查询天气”。
model = model.bind_tools(functions)
  • 作用:将 转换好的工具函数 绑定到模型上,使得在对话过程中模型可以直接调用这些工具。
  • 举例:当用户问天气问题时,模型就能自动调用相应的工具,而不需要人工干预。

3. 定义“agent”节点的处理函数

def function_1(state):messages = state['messages']response = model.invoke(messages)return {"messages": [response]}
  • 作用:这是工作流中的“agent”节点对应的函数,主要逻辑如下:
    • 从 输入状态 中提取消息列表(state['messages'])。
    • 调用模型的 invoke 方法,根据当前的消息生成一个回复(response)。
    • 返回一个包含回复的字典,其格式符合工作流要求,即 {"messages": [response]}
  • 举例:如果初始状态中只有一个用户消息 “what is the temperature in las vegas?”,那么这个函数会将消息传给模型,模型可能生成一个包含工具调用指令的回复,例如提示需要调用天气查询工具。

4. 创建工具执行器

tool_executor = ToolExecutor(tools)
  • 作用:初始化一个 ToolExecutor 实例,传入之前定义的 tools 列表。它负责实际执行工具调用
  • 举例:当系统需要查询天气时,会利用 tool_executor 发送请求给 OpenWeatherMap API,并返回查询结果。

5. 定义“tool”节点的处理函数

def function_2(state):messages = state['messages']last_message = messages[-1]  # 取最后一条消息,获取要发送给工具的查询print('last_message===\n', last_message)
  • 作用:这是工作流中“tool”节点对应的函数,用于处理工具调用。第一步,它获取状态中的所有消息,并取最后一条消息,因为这条消息可能包含模型生成的工具调用信息。
  • 举例:假设前面 agent 节点生成的回复中包含了一个指令,比如“调用天气查询工具查询 ‘las vegas’”,那么这条消息就是最后一条消息。
    # 确保 tool_calls 存在且为非空列表tool_calls = last_message.additional_kwargs.get("tool_calls", [])
  • 作用:尝试从最后一条消息的 additional_kwargs 字段中获取 tool_calls 列表。这个列表包含了模型建议调用的工具信息。
  • 举例:如果模型生成的回复中包含工具调用的说明,则 tool_calls 列表里会有相应的字典;如果没有,则返回空列表。
    if tool_calls:function_data = tool_calls[0].get("function", {})  # 获取 function 字典arguments_str = function_data.get("arguments", "{}")  # 获取 arguments JSON 字符串parsed_tool_input = json.loads(arguments_str)  # 解析 JSONprint('parsed_tool_input===\n', parsed_tool_input)tool_call_id = tool_calls[0]["id"]else:print("Warning: tool_calls is empty.")
  • 作用
    • 判断 tool_calls 是否有内容。
    • 如果有,从第一个工具调用中提取 function 字典,其中包含工具名称及其参数(以 JSON 字符串形式存储)。
    • 使用 json.loads 将 JSON 字符串解析为 Python 字典,得到工具调用的输入参数。
    • 同时获取该工具调用的唯一标识符 id
  • 举例:如果模型建议调用天气工具,并给出参数 {"location": "las vegas"},那么解析后 parsed_tool_input 就是字典 {"location": "las vegas"}function_data["name"]"open_weather_map"
    print('function_data===\n', function_data, function_data["name"])print('parsed_tool_input===\n', parsed_tool_input, parsed_tool_input['location'])
  • 作用:打印出获取的工具调用数据和解析后的输入参数,方便调试。这里分别显示了工具的名称和输入参数(如位置)。
  • 举例:控制台中可能输出:
    function_data===
    {'name': 'open_weather_map', 'arguments': '{"location": "las vegas"}'} 
    parsed_tool_input===
    {'location': 'las vegas'}
    
    # 构造 ToolInvocationaction = ToolInvocation(tool=function_data["name"],tool_input=parsed_tool_input['location'],)
  • 作用:利用获取到的工具名称和输入参数构造一个 ToolInvocation 对象,用于描述需要调用哪个工具以及传入的参数。
  • 举例:生成的 action 对象表示“调用 open_weather_map工具,并传入参数 ‘las vegas’”。
    # 使用 tool_executor 处理请求response = tool_executor.invoke(action)print('response===\n', response, '\n', action.tool)
  • 作用
    • 使用 tool_executor 执行前面构造的 ToolInvocation
    • 将工具返回的结果保存在 response 中,并打印输出调试信息。
  • 举例:如果 API 返回当前温度为 28°C,则 response 可能就是 “28°C”,同时打印出调用的是哪个工具。
    # 构造 FunctionMessagefunction_message = ToolMessage(response, tool_call_id=tool_call_id)
  • 作用:将工具调用返回的结果包装成一个 ToolMessage 对象,同时关联上之前获取的工具调用 ID,这样后续流程可以识别是哪个工具调用的结果。
  • 举例function_message 对象中会包含返回的温度数据和工具调用的标识,用于和 agent 的对话衔接。
    # 返回消息列表return {"messages": [function_message]}
  • 作用:最终返回一个字典,键为 "messages",值是包含工具调用结果的消息列表,符合工作流的状态格式。

6. 定义决策函数:确定下一步走向

def where_to_go(state):messages = state['messages']last_message = messages[-1]if "tool_calls" in last_message.additional_kwargs:return "continue"else:return "end"
  • 作用
    • 该函数用于决定工作流的下一步走向。
    • 检查最后一条消息的 additional_kwargs 中是否包含 tool_calls 字段。
    • 如果存在,返回字符串 "continue",表示 agent 节点后续需要调用工具节点;否则返回 "end",表示整个工作流结束。
  • 举例:假设 agent 节点生成的回复中包含工具调用信息(即 additional_kwargs 中有 tool_calls),则函数返回 "continue",工作流会跳转到工具节点去执行工具调用。

7. 构建工作流图

# from langgraph.graph import Graph, END
# workflow = Graph()# Or you could import StateGraph and pass AgentState to it
workflow = StateGraph(AgentState)
  • 作用
    • 这里展示了两种构建工作流的方法。注释部分给出了另一种可能的做法。
    • 实际代码使用 StateGraph 来构建一个基于状态的工作流图。AgentState(虽然未在代码中定义)表示对话状态的数据结构。
  • 举例:可以把整个对话流程看成一个状态机,每个节点(agent 或 tool)根据当前状态执行对应的函数。
workflow.add_node("agent", function_1)
workflow.add_node("tool", function_2)
  • 作用
    • 将两个节点添加到工作流图中:
      • "agent" 节点关联 function_1,负责生成模型回复。
      • "tool" 节点关联 function_2,负责处理工具调用。
  • 举例:当工作流启动时,会先执行 "agent" 节点中的逻辑;如果生成的回复需要调用工具,就会跳转到 "tool" 节点。
workflow.add_conditional_edges("agent", where_to_go, {"continue": "tool","end": END
})
  • 作用
    • "agent" 节点添加基于条件的边(转移规则)。
    • 这里使用 where_to_go 函数决定下一步:
      • 如果返回 "continue",则转向 "tool" 节点。
      • 如果返回 "end",则工作流结束(用特殊常量 END 表示)。
  • 举例:如果 agent 节点生成的消息中包含工具调用信息,则 where_to_go 返回 "continue",工作流会执行 function_2;否则工作流结束,返回最终结果。
workflow.add_edge('tool', 'agent')
  • 作用
    • 添加一条普通的边,表示无论如何当 "tool" 节点执行完后,都要回到 "agent" 节点。
  • 举例:工具调用执行完后,系统会把工具返回的结果传递给 agent 继续处理后续对话或生成新的回复。
workflow.set_entry_point("agent")
  • 作用
    • 设置工作流的入口节点为 "agent"即工作流启动时第一个执行的节点
  • 举例:当整个应用启动时,会首先调用 function_1 来处理用户输入。
app = workflow.compile()
  • 作用
    • 编译(构建)工作流图,生成一个可执行的工作流应用 app
  • 举例:此时 app 已经包含了所有节点和边的定义,可以根据输入状态开始整个对话流程。

8. 传入输入并执行工作流

inputs = {"messages": [HumanMessage(content="what is the temperature in las vegas?")]} # what is the temperature in las vegas
  • 作用
    • 定义了工作流的初始输入状态,是一个字典,键为 "messages",值为包含一个 HumanMessage 对象的列表。
    • 这个 HumanMessage 的内容为 “what is the temperature in las vegas?”,即用户询问拉斯维加斯的温度。
  • 举例:当用户在聊天窗口输入这个问题后,系统会将其包装成 HumanMessage 对象传入工作流。
result = app.invoke(inputs)
print('type result=====\n\n\n', type(result))
print('result=====\n\n\n', result)
  • 作用
    • 使用编译好的工作流 app 调用 invoke 方法,并传入初始输入。
    • 将执行结果保存到 result 中,并打印结果的类型和内容。
  • 举例
    • 假设工作流执行完后返回了一个消息列表,其中可能包含从 OpenWeatherMap 查询到的温度信息,控制台就会输出类似:
      type result=====
      <class 'dict'>result=====
      {'messages': [ToolMessage(...)]}
      
    • 这样你就可以看到整个流程是如何从用户询问,到模型判断调用工具,再到实际查询并返回结果的。

总结

整个代码构建了一个基于状态机的对话工作流,主要步骤如下:

  1. 初始化:导入相关库,并配置好一个天气查询工具和一个 OpenAI 聊天模型。
  2. 工具绑定:将工具转换并绑定到模型上,使得模型能够在必要时调用外部 API(这里是天气查询)。
  3. 定义节点函数
    • function_1(agent 节点):处理用户输入,生成回复,可能包含工具调用指令。
    • function_2(tool 节点):解析 agent 的回复中是否包含工具调用信息,若有则提取参数并调用工具,最后将工具结果封装成消息返回。
  4. 构建工作流图:设置节点之间的转移规则,例如:如果 agent 的回复中包含工具调用信息,就跳转到 tool 节点,否则结束;工具执行完后再回到 agent 节点。
  5. 启动工作流:传入用户问题(例如查询拉斯维加斯温度),依次执行 agent 和 tool 节点,最终打印出结果。

通俗举例
想象你和一个智能助手对话:

  • 第一步:你问:“拉斯维加斯现在几度?”
  • 第二步:智能助手(agent)生成回复,并发现需要查询天气数据(包含一个工具调用指令)。
  • 第三步:系统自动跳转到工具执行部分(tool),根据指令调用天气查询 API,获得当前温度。
  • 第四步:查询结果返回给智能助手,然后你看到最终的回复,比如“拉斯维加斯当前温度为 28°C”。

这种设计让智能助手既能生成自然语言回复,又能在必要时调用外部工具获取实时数据,从而提升回答的准确性和实用性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/28562.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python练习(握手问题,进制转换,日期问题,位运算,求和)

一. 握手问题 代码实现 ans0for i in range(1,51):for j in range(i1,51):if i<7 and j<7:continueelse:ans 1print(ans) 这道题可以看成是50个人都握了手减去7个人没握手的次数 答案&#xff1a;1204 二.将十进制整数拆解 2.1门牌制作 代码实现 ans0for i in ra…

DeepSeek 角色设定与风格控制

&#x1f9d1; 博主简介&#xff1a;CSDN博客专家&#xff0c;历代文学网&#xff08;PC端可以访问&#xff1a;https://literature.sinhy.com/#/?__c1000&#xff0c;移动端可微信小程序搜索“历代文学”&#xff09;总架构师&#xff0c;15年工作经验&#xff0c;精通Java编…

网络原理--HTTP协议

http中文名为超文本传输协议&#xff0c;所谓“超文本”就是指传输范围超出了能在UTF8等码表上找到的字符的范围&#xff0c;包含一些图片&#xff0c;特殊格式之类的。 HTTP的发展简介 从图中可以看出到现在已经发展出了HTTP3&#xff0c;但是市面上的主流还是以HTTP1.0为主。…

学习工具的一天之(burp)

第一呢一定是先下载 【Java环境】&#xff1a;Java Downloads | Oracle 下来是burp的下载 Download Burp Suite Community Edition - PortSwigger 【下载方法二】关注的一个博主 【BurpSuite 安装激活使用详细上手教程 web安全测试工具】https://www.bilibili.com/video/BV…

Java后端高频面经——Mysql

3. Mysql(21) 第三范式的作用与原理&#xff1f;&#xff08;B站&#xff09; 数据库范式有 3 种&#xff1a; 1NF(第一范式)&#xff1a;属性不可再分。 1NF 是所有关系型数据库的最基本要求 &#xff0c;也就是说关系型数据库中创建的表一定满足第一范式。 2NF(第二范式)&am…

React:Router路由

ReactRouter引入 在index.js里编辑&#xff0c;创建路由&#xff0c;绑定路由 import React from react; import ReactDOM from react-dom/client; import ./index.css; import reportWebVitals from ./reportWebVitals; import { createBrowserRouter, RouterProvider } from…

什么是XSS

文章目录 前言1. 前端知识2. 什么是XSS3. 漏洞挖掘4. 参考 前言 之前对XSS的理解就是停留在弹窗&#xff0c;认为XSS这种漏洞真的是漏洞吗&#xff1f;安全学习了蛮久了&#xff0c;也应该对XSS有更进一步的认识了。 1. 前端知识 现代浏览器是一个高度复杂的软件系统&#xf…

字节跳动发布 Trae AI IDE!支持 DeepSeek R1 V3,AI 编程新时代来了!

3 月 3 日&#xff0c;字节跳动重磅发布国内首款 AI 原生集成开发环境&#xff08;AI IDE&#xff09;——Trae 国内版&#xff01; Trae 不只是一个传统的 IDE&#xff0c;它深度融合 AI&#xff0c;搭载 doubao-1.5-pro 大模型&#xff0c;同时支持DeepSeek R1 & V3&…

QT 作业 day4

作业 代码 Widget.h class Widget : public QWidget {Q_OBJECTpublic:Widget(QWidget *parent nullptr);~Widget();private slots:// 槽函数void on_listWidget_itemDoubleClicked(QListWidgetItem *item);private:Ui::Widget *ui; }; #endif Widget.cpp Widget::Widget(QW…

新版 FMEA 七步法 - PFMEA 第2步“结构分析”的关键要点 | FMEA软件

基于AIAG & VDA FMEA七步法&#xff0c;在 PFMEA 第二步“结构分析”中&#xff0c;FMEA软件 CoreFMEA 总结了关键要点如下&#xff1a; 1. 明确分析目的与范围 界定边界&#xff1a;清晰确定要分析的制造系统边界&#xff0c;明确哪些过程、设备、人员等包含在分析范围内…

DeepSeek 助力 Vue3 开发:打造丝滑的时间选择器(Time Picker)

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎收藏+关注哦 💕 目录 DeepSeek 助力 Vue3 开发:打造丝滑的时间选择器(Time Picker)📚前言📚页面效果📚指令输入…

Python-04BeautifulSoup网络爬虫

2025-03-04-BeautifulSoup网络爬虫 记录BeautifulSoup网络爬虫的核心知识点 文章目录 2025-03-04-BeautifulSoup网络爬虫 [toc]1-参考网址2-学习要点3-核心知识点1. 安装2. 导入必要的库3. 发送 HTTP 请求4. 创建 BeautifulSoup 对象5. 解析 HTML 内容5.1 查找标签5.2 根据属性…

[Windows] 多系统键鼠共享工具 轻松跨系统控制多台电脑

参考原文&#xff1a;[Windows] 多系统键鼠共享工具 轻松跨系统控制多台电脑 还在为多台电脑需要多套键盘鼠标而烦恼吗&#xff1f;是不是在操控 Windows、macOS、Linux 不同系统电脑时手忙脚乱&#xff1f;现在&#xff0c;这些问题通通能解决&#xff01;Deskflow 软件闪亮登…

docker学习笔记(1)从安装docker到使用Portainer部署容器

docker学习笔记第一课 先交代背景 docker宿主机系统&#xff1a;阿里云ubuntu22.04 开发机系统&#xff1a;win11 docker镜像仓库&#xff1a;阿里云&#xff0c;此阿里云与宿主机系统没有关系&#xff0c;是阿里云提供的一个免费的docker仓库 代码托管平台&#xff1a;github&…

Ollama 框架本地部署教程:开源定制,为AI 项目打造专属解决方案!

Ollama 是一款开源的本地大语言模型&#xff08;LLM&#xff09;运行框架&#xff0c;用于管理和运行语言模型。具有以下核心特点&#xff1a; 开源可定制&#xff1a;采用 MIT 开源协议&#xff0c;开发者能自由使用、阅读源码并定制&#xff0c;可根据自身需求进行功能扩展和…

【AIGC】通义万相 2.1 与蓝耘智算:共绘 AIGC 未来绚丽蓝图

一、引言 在人工智能技术迅猛发展的今天&#xff0c;AIGC&#xff08;生成式人工智能内容生成&#xff09;领域正以惊人的速度改变着我们的生活和工作方式。从艺术创作到影视制作&#xff0c;从广告设计到智能客服&#xff0c;AIGC 技术的应用越来越广泛。通义万相 2.1 作为一…

打印三角形及Debug

打印三角形及Debug package struct; ​ public class TestDemo01 {public static void main(String[] args) {//打印三角形 五行 ​for (int i 1; i < 5; i) {for (int j 5 ; j >i; j--) {System.out.print(" ");}for (int k1;k<i;k) {System.out.print(&…

C 语 言 --- 猜 数 字 游 戏

C 语 言 --- 猜 数 字 游 戏 代 码 全 貌 与 功 能 介 绍游 戏 效 果 展 示游 戏 代 码 详 解头 文 件 引 入菜单函数游 戏 逻 辑 函 数 gamerand 函 数 详 解逻 辑 函 数 game 主 函 数 总结 &#x1f4bb;作 者 简 介&#xff1a;曾 与 你 一 样 迷 茫&#xff0c;现 以 经 验…

免费分享一个软件SKUA-GOCAD-2022版本

若有需要&#xff0c;可以下载。 下载地址 通过网盘分享的文件&#xff1a;Paradigm SKUA-GOCAD 22 build 2022.06.20 (x64).rar 链接: https://pan.baidu.com/s/10plenNcMDftzq3V-ClWpBg 提取码: tm3b 安装教程 Paradigm SKUA-GOCAD 2022版本v2022.06.20安装和破解教程-CS…

记录一次Spring事务失效导致的生产问题

一、背景介绍 公司做的是“聚合支付”业务&#xff0c;对接了微信、和包、数字人民币等等多家支付机构&#xff0c;我们提供统一的支付、退款、自动扣款签约、解约等能力给全国的省公司、机构、商户等。 同时&#xff0c;需要做对账功能&#xff0c;即支付机构将对账文件给到…