Sglang部署大模型常用参数详解

Sglang部署大模型常用参数详解

    • 常用启动命令
    • HTTP服务器配置
    • API配置
    • 并行处理
      • 张量并行
      • 数据并行
      • 专家并行
    • 内存和调度
    • 其他运行时选项
    • 日志记录
    • 多节点分布式服务
    • LoRA
    • 内核后端
    • 约束解码
    • 推测解码
    • 双稀疏性
    • 调试选项
    • 优化选项
    • 参数概览

常用启动命令

要启用多GPU张量并行性,请添加 --tp 2。如果报告错误“这些设备之间不支持对等访问”,请在服务器启动命令中添加 --enable-p2p-check。

python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --tp 2

要启用多 GPU 数据并行,请添加–dp 2。如果内存足够,数据并行对吞吐量更有利。它也可以与张量并行一起使用。以下命令总共使用 4 个 GPU。我们建议使用SGLang Router进行数据并行。

python -m sglang_router.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --dp 2 --tp 2

如果在服务过程中出现内存不足错误,请尝试通过设置较小的值来减少 KV 缓存池的内存使用量–mem-fraction-static。默认值为0.9。

python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --mem-fraction-static 0.7

果在长提示的预填充过程中看到内存不足错误,请尝试设置较小的分块预填充大小。

python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --chunked-prefill-size 4096
  • 要启用torch.compile加速,请添加 --enable-torch-compile。它可以在小批量大小上加速小型模型。但目前这不适用于FP8。你可以参考“为torch.compile启用缓存”以获取更多详情。
  • 要启用torchao量化,请添加 --torchao-config int4wo-128。它也支持其他的量化策略(INT8/FP8)。
  • 要启用fp8权重量化,在fp16检查点上添加 --quantization fp8 或直接加载一个fp8检查点,无需指定任何参数。
  • 要启用fp8 kv缓存量化,请添加 --kv-cache-dtype fp8_e5m2。
  • 如果模型在Hugging Face的tokenizer中没有聊天模板,可以指定一个自定义聊天模板。
  • 要在多个节点上运行张量并行,请添加 --nnodes 2。如果你有两个节点,每个节点上有两个GPU,并希望运行TP=4,假设sgl-dev-0是第一个节点的主机名且50000是一个可用端口,你可以使用以下命令。如果遇到死锁,请尝试添加 --disable-cuda-graph。
# Node 0
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --tp 4 --dist-init-addr sgl-dev-0:50000 --nnodes 2 --node-rank 0# Node 1
python -m sglang.launch_server --model-path meta-llama/Meta-Llama-3-8B-Instruct --tp 4 --dist-init-addr sgl-dev-0:50000 --nnodes 2 --node-rank 1

模型和分词器参数说明:

  • model_path: 模型存放的路径,该模型将会被加载用于服务。

  • tokenizer_path: 默认与model_path相同。这是分词器文件所在的路径。

  • tokenizer_mode: 默认为auto模式,具体不同模式可以参考相关文档。

  • load_format: 权重文件的格式,默认是*.safetensors/*.bin。

  • trust_remote_code: 如果设置为True,则使用本地缓存的配置文件;否则使用HuggingFace中的远程配置。

  • dtype: 用于模型的数据类型,默认是bfloat16。

  • kv_cache_dtype: kv缓存使用的数据类型,默认与dtype相同。

  • context_length: 模型能够处理的token数量,包括输入的tokens。请注意扩展默认值可能会导致奇怪的行为。

  • device: 模型部署的设备,默认是cuda。

  • chat_template: 使用的聊天模板。不使用默认模板可能导致意外的回复。对于多模态聊天模板,请参阅相关部分。确保传递正确的chat_template,否则可能导致性能下降。

  • is_embedding: 设置为true以执行嵌入/编码和奖励任务。

  • revision: 如果需要使用模型的特定版本,可以通过此参数调整。

  • skip_tokenizer_init: 设置为true时,提供tokens给引擎并直接获取输出tokens,通常在RLHF中使用。请参考提供的示例。

  • json_model_override_args: 使用提供的JSON覆盖模型配置。

  • delete_ckpt_after_loading: 加载模型后删除模型检查点。
    服务:HTTP & API

HTTP服务器配置

  • porthost: 设置HTTP服务器的主机地址。默认情况下,host: str = "127.0.0.1"(即本地回环地址)和port: int = 30000

API配置

  • api_key: 设置服务器和兼容OpenAI的API的API密钥。

  • file_storage_path: 用于存储从API调用中上传或生成的文件的目录。

  • enable_cache_report: 如果设置了此选项,则在响应使用情况中包括缓存token使用的详细信息。

并行处理

张量并行

  • tp_size: 模型权重分片所用的GPU数量。主要用于节省内存而不是提高吞吐量,详情见相关博客文章。

数据并行

  • dp_size: 将被弃用。模型的数据并行副本的数量。推荐使用SGLang路由器代替当前的简单数据并行。
  • load_balance_method: 将被弃用。数据并行请求的负载均衡策略。

专家并行

  • enable_ep_moe: 启用专家并行,将MoE模型中的专家分布到多个GPU上。
  • ep_size: EP(专家并行)的大小。请以tp_size=ep_size的方式分割模型权重,具体基准测试参见PR。如果未设置,ep_size会自动设置为tp_size

内存和调度

  • mem_fraction_static: 用于静态内存(如模型权重和KV缓存)的空闲GPU内存的比例。如果构建KV缓存失败,应该增加此值;如果CUDA内存不足,则应减少。
  • max_running_requests: 并发运行的最大请求数量。
  • max_total_tokens: 可以存储到KV缓存中的最大token数。主要用于调试。
  • chunked_prefill_size: 以这些大小的块执行预填充。较大的块大小加快了预填充阶段但增加了VRAM消耗。如果CUDA内存不足,应减少此值。
  • max_prefill_tokens: 一个预填充批次中接受的token预算。实际数字是此参数与context_length之间的最大值。
  • schedule_policy: 控制单个引擎中等待预填充请求的处理顺序的调度策略。
  • schedule_conservativeness: 用于调整服务器在接收新请求时的保守程度。高度保守的行为会导致饥饿,而较低的保守性会导致性能下降。
  • cpu_offload_gb: 为卸载到CPU的模型参数保留的RAM量(GB)。

其他运行时选项

  • stream_interval: 流式响应的间隔(按token计)。较小的值使流式传输更平滑,较大的值提供更好的吞吐量。
  • random_seed: 用于强制更确定性的行为。
  • watchdog_timeout: 调整看门狗线程的超时时间,在批处理生成花费过长时间时终止服务器。
  • download_dir: 用于覆盖Hugging Face默认的模型权重缓存目录。
  • base_gpu_id: 用于调整第一个用于跨可用GPU分配模型的GPU。
  • allow_auto_truncate: 自动截断超过最大输入长度的请求。

日志记录

  • log_level: 全局日志详细级别。
  • log_level_http: HTTP服务器日志的独立详细级别(如果未设置,默认为log_level)。
  • log_requests: 记录所有请求的输入和输出以进行调试。
  • show_time_cost: 打印或记录内部操作的详细计时信息(有助于性能调优)。
  • enable_metrics: 导出类似于Prometheus的请求使用情况和性能指标。
  • decode_log_interval: 记录解码进度的频率(按token计)。

多节点分布式服务

  • dist_init_addr: 用于初始化PyTorch分布式后端的TCP地址(例如192.168.0.2:25000)。
  • nnodes: 集群中的总节点数。参考如何运行Llama 405B模型。
  • node_rank: 在分布式设置中该节点在nnodes中的排名(ID)。

LoRA

  • lora_paths: 可以为您的模型提供一系列适配器作为列表。每个批次元素都会获得应用相应LoRA适配器的模型响应。目前cuda_graph和radix_attention不支持此选项,因此需要手动禁用。
  • max_loras_per_batch: 运行批次中包括基本模型在内的最大LoRAs数量。
  • lora_backend: LoRA模块运行GEMM内核的后端,可以是triton或flashinfer之一,默认为triton。

内核后端

  • attention_backend: 注意力计算和KV缓存管理的后端。
  • sampling_backend: 采样的后端。

约束解码

  • grammar_backend: 约束解码的语法后端。详细使用方法见相关文档。
  • constrained_json_whitespace_pattern: 与Outlines语法后端一起使用,允许JSON包含语法上的换行符、制表符或多空格。详情见此处。

推测解码

  • speculative_draft_model_path: 用于推测解码的草稿模型路径。
  • speculative_algorithm: 推测解码的算法。当前仅支持Eagle。注意,在使用eagle推测解码时,radix缓存、分块预填充和重叠调度器将被禁用。
  • speculative_num_steps: 在验证前运行多少次草稿。
  • speculative_num_draft_tokens: 草稿中提议的token数量。
  • speculative_eagle_topk: 每一步为Eagle保留进行验证的顶级候选者数量。
  • speculative_token_map: 可选,指向FR-Spec高频token列表的路径,用于加速Eagle。

双稀疏性

  • enable_double_sparsity: 启用双稀疏性,提高吞吐量。
  • ds_channel_config_path: 双稀疏配置。关于如何为您的模型生成配置,请参阅此仓库。
  • ds_heavy_channel_num: 每层要保持的通道索引数量。
  • ds_heavy_token_num: 解码期间用于注意力的token数量。如果批次中的min_seq_len小于该数字,则跳过稀疏解码。
  • ds_heavy_channel_type: 重型通道的类型。可以是q、k或qk。
  • ds_sparse_decode_threshold: 如果批次中的max_seq_len小于该阈值,则不应用稀疏解码。

调试选项

  • disable_radix_cache: 禁用Radix后端用于前缀缓存。
  • disable_cuda_graph: 禁用cuda图用于模型前向传播。如果遇到无法纠正的CUDA ECC错误,请使用此选项。
  • disable_cuda_graph_padding: 当需要填充时禁用cuda图。在其他情况下仍然使用cuda图。
  • disable_outlines_disk_cache: 禁用outlines语法后端的磁盘缓存。
  • disable_custom_all_reduce: 禁用自定义all reduce内核的使用。
  • disable_mla: 禁用Deepseek模型的多头潜在注意力(MLA)。
  • disable_overlap_schedule: 禁用重叠调度器。
  • enable_nan_detection: 开启此选项会使采样器在logits包含NaN时打印警告。
  • enable_p2p_check: 关闭默认允许始终进行GPU访问时的p2p检查。
  • triton_attention_reduce_in_fp32: 在triton内核中,这会将中间注意力结果转换为float32。

优化选项

  • enable_mixed_chunk: 启用混合预填充和解码,详见讨论。
  • enable_dp_attention: 启用Deepseek模型的数据并行注意力。请注意,您需要选择dp_size = tp_size
  • enable_torch_compile: 使用torch编译模型。注意,编译模型耗时较长但能显著提升性能。编译后的模型也可以缓存以备将来使用。
  • torch_compile_max_bs: 使用torch_compile时的最大批量大小。
  • cuda_graph_max_bs: 使用cuda图时调整最大批量大小。默认根据GPU规格为您选择。
  • cuda_graph_bs: CudaGraphRunner捕获的批量大小。默认自动完成。
  • torchao_config: 实验性功能,使用torchao优化模型。可能的选择有:int8dq, int8wo, int4wo-<group_size>, fp8wo, fp8dq-per_tensor, fp8dq-per_row。
  • triton_attention_num_kv_splits: 用于调整triton内核中的KV分割数量。默认是8。
  • enable_flashinfer_mla: 使用带有flashinfer MLA包装器的注意力后端用于Deepseek模型。提供此参数时,将覆盖attention_backend参数。
  • flashinfer_mla_disable_ragged: 当启用enable_flashinfer_mla时,应使用此选项禁用ragged预填充包装器。

参数概览

-h, --help            显示帮助信息并退出--model-path MODEL_PATH模型权重的路径。可以是本地文件夹或Hugging Face仓库ID。--tokenizer-path TOKENIZER_PATH分词器的路径。--host HOST           服务器的主机地址。--port PORT           服务器的端口。--tokenizer-mode {auto,slow}分词器模式。'auto'会使用可用的快速分词器,而'slow'总是使用慢速分词器。--skip-tokenizer-init如果设置,跳过初始化分词器,并在生成请求时传递input_ids。--load-format {auto,pt,safetensors,npcache,dummy,gguf,bitsandbytes,layered}要加载的模型权重格式。“auto”将尝试以safetensors格式加载权重,如果不可用则回退到pytorch bin格式。“pt”将以pytorch bin格式加载权重。“safetensors”将以safetensors格式加载权重。“npcache”将以pytorch格式加载权重并在numpy缓存中存储以加快加载速度。“dummy”将使用随机值初始化权重,主要用于性能分析。“gguf”将以gguf格式加载权重。“bitsandbytes”将使用bitsandbytes量化加载权重。“layered”逐层加载权重,以便在一个层被量化之前加载另一个层,从而减小峰值内存占用。--trust-remote-code   是否允许Hub上自定义模型在其自己的建模文件中定义。--dtype {auto,half,float16,bfloat16,float,float32}模型权重和激活的数据类型。* "auto"对FP32和FP16模型使用FP16精度,对BF16模型使用BF16精度。 * "half"为FP16。推荐用于AWQ量化。 * "float16""half"相同。 * "bfloat16"在精度和范围之间取得平衡。 * "float"是FP32精度的简写。 * "float32"为FP32精度。--kv-cache-dtype {auto,fp8_e5m2,fp8_e4m3}KV缓存存储的数据类型。“auto”将使用模型数据类型。“fp8_e5m2”和“fp8_e4m3”支持CUDA 11.8+--quantization-param-path QUANTIZATION_PARAM_PATH包含KV缓存缩放因子的JSON文件的路径。当KV缓存数据类型为FP8时通常需要提供。否则,默认缩放因子为1.0,可能导致准确性问题。--quantization {awq,fp8,gptq,marlin,gptq_marlin,awq_marlin,bitsandbytes,gguf,modelopt,w8a8_int8}量化方法。--context-length CONTEXT_LENGTH模型的最大上下文长度。默认为None(将使用模型config.json中的值)。--device {cuda,xpu,hpu,cpu}设备类型。--served-model-name SERVED_MODEL_NAME覆盖OpenAI API服务器v1/models端点返回的模型名称。--chat-template CHAT_TEMPLATE内置聊天模板名称或聊天模板文件的路径。仅用于兼容OpenAI API的服务器。--is-embedding        是否将CausalLM用作嵌入模型。--revision REVISION   使用的具体模型版本。可以是分支名、标签名或提交ID。未指定时,使用默认版本。--mem-fraction-static MEM_FRACTION_STATIC用于静态分配(模型权重和KV缓存内存池)的内存比例。如果遇到内存不足错误,请使用较小的值。--max-running-requests MAX_RUNNING_REQUESTS正在运行的最大请求数量。--max-total-tokens MAX_TOTAL_TOKENS内存池中的最大token数量。如果未指定,将根据内存使用比例自动计算。此选项通常用于开发和调试目的。--chunked-prefill-size CHUNKED_PREFILL_SIZE分块预填充中每个块的最大token数量。设置为-1表示禁用分块预填充。--max-prefill-tokens MAX_PREFILL_TOKENS预填充批次中的最大token数量。实际限制将是此值和模型最大上下文长度之间的较大值。--schedule-policy {lpm,random,fcfs,dfs-weight}请求的调度策略。--schedule-conservativeness SCHEDULE_CONSERVATIVENESS调度策略的保守程度。较大的值意味着更保守的调度。如果经常看到请求被撤回,请使用较大的值。--cpu-offload-gb CPU_OFFLOAD_GB为CPU卸载保留的RAM GB数。--prefill-only-one-req PREFILL_ONLY_ONE_REQ如果为true,则每次预填充仅处理一个请求。--tensor-parallel-size TENSOR_PARALLEL_SIZE, --tp-size TENSOR_PARALLEL_SIZE张量并行大小。--stream-interval STREAM_INTERVAL流式传输的间隔(或缓冲区大小),按token长度计算。较小的值使流式传输更平滑,而较大的值提高吞吐量。--stream-output       是否作为一系列不连续的段输出。--random-seed RANDOM_SEED随机种子。--constrained-json-whitespace-pattern CONSTRAINED_JSON_WHITESPACE_PATTERNJSON约束输出中允许的语法空白的正则表达式模式。例如,要允许模型生成连续的空格,请将模式设置为[\n\t ]*--watchdog-timeout WATCHDOG_TIMEOUT设置看门狗超时时间(秒)。如果前向批处理花费的时间超过此值,服务器将崩溃以防止挂起。--download-dir DOWNLOAD_DIR模型下载目录。--base-gpu-id BASE_GPU_ID开始分配GPU的基础GPU ID。在单台机器上运行多个实例时很有用。--log-level LOG_LEVEL所有记录器的日志级别。--log-level-http LOG_LEVEL_HTTPHTTP服务器的日志级别。如果没有设置,默认重用--log-level。--log-requests        记录所有请求的输入和输出。--show-time-cost      显示自定义标记的时间成本。--enable-metrics      启用日志Prometheus指标。--decode-log-interval DECODE_LOG_INTERVAL解码批次的日志间隔。--api-key API_KEY     设置服务器的API密钥。也用于兼容OpenAI API的服务器。--file-storage-pth FILE_STORAGE_PTH后端文件存储的路径。--enable-cache-report返回openai请求中usage.prompt_tokens_details中的缓存token数量。--data-parallel-size DATA_PARALLEL_SIZE, --dp-size DATA_PARALLEL_SIZE数据并行大小。--load-balance-method {round_robin,shortest_queue}数据并行性的负载均衡策略。--expert-parallel-size EXPERT_PARALLEL_SIZE, --ep-size EXPERT_PARALLEL_SIZE专家并行大小。--dist-init-addr DIST_INIT_ADDR, --nccl-init-addr DIST_INIT_ADDR初始化分布式后端的主机地址(例如`192.168.0.2:25000`)。--nnodes NNODES       节点数量。--node-rank NODE_RANK节点排名。--json-model-override-args JSON_MODEL_OVERRIDE_ARGS用于覆盖默认模型配置的JSON字符串格式的字典。--lora-paths [LORA_PATHS ...]LoRA适配器列表。可以提供str格式的路径列表,或{名称}={路径}的重命名路径格式。--max-loras-per-batch MAX_LORAS_PER_BATCH运行批次中的最大适配器数量,包括仅基础模型的请求。--lora-backend LORA_BACKEND选择多LoRA服务的内核后端。--attention-backend {flashinfer,triton,torch_native}选择注意力层的内核。--sampling-backend {flashinfer,pytorch}选择采样层的内核。--grammar-backend {xgrammar,outlines}选择语法引导解码的后端。--enable-flashinfer-mla启用FlashInfer MLA优化--speculative-algorithm {EAGLE}推测算法。--speculative-draft-model-path SPECULATIVE_DRAFT_MODEL_PATH草稿模型权重的路径。可以是本地文件夹或Hugging Face仓库ID。--speculative-num-steps SPECULATIVE_NUM_STEPS在推测解码中从草稿模型采样的步骤数。--speculative-num-draft-tokens SPECULATIVE_NUM_DRAFT_TOKENS在推测解码中从草稿模型采样的token数。--speculative-eagle-topk {1,2,4,8}在eagle2每步中从草稿模型采样的token数。--enable-double-sparsity启用双重稀疏性注意力--ds-channel-config-path DS_CHANNEL_CONFIG_PATH双重稀疏性通道配置的路径--ds-heavy-channel-num DS_HEAVY_CHANNEL_NUM双重稀疏性注意力中的重型通道数量--ds-heavy-token-num DS_HEAVY_TOKEN_NUM双重稀疏性注意力中的重型token数量--ds-heavy-channel-type DS_HEAVY_CHANNEL_TYPE

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/32442.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AutoGen使用学习

AutoGen使用学习 上篇文件使用使用【autoGenchainlitdeepSeek】实现【多角色、多用户、多智能体对话系统】&#xff0c;本次系统的学习autoGen的使用方法 文章目录 AutoGen使用学习[toc]1-核心知识点2-参考网址3-实战案例1-autoGen安装和基础使用主要功能安装方法使用示例注意事…

207、【图论】孤岛的总面积

题目 思路 相比于 206、【图论】岛屿数量&#xff0c;就是在这个代码的基础上。先遍历边界&#xff0c;将边界连接的岛屿变为0&#xff0c;然后再计算一遍当前为1的岛屿面积。 代码实现 import collectionsn, m list(map(int, input().split())) graph []for _ in range(n…

Python Selenium库入门使用,图文详细。附网页爬虫、web自动化操作等实战操作。

文章目录 前言1 创建conda环境安装Selenium库2 浏览器驱动下载&#xff08;以Chrome和Edge为例&#xff09;3 基础使用&#xff08;以Chrome为例演示&#xff09;3.1 与浏览器相关的操作3.1.1 打开/关闭浏览器3.1.2 访问指定域名的网页3.1.3 控制浏览器的窗口大小3.1.4 前进/后…

在芯片设计的后端流程中,通过metal修timing是什么意思,怎么实施。举个timing违例说明一下

芯片设计后端流程中通过Metal修Timing 在芯片设计后端流程中&#xff0c;"通过metal修timing"是指通过调整金属层布线来解决时序违例问题的一种技术手段。这是物理设计阶段常用的优化方法之一。 什么是通过Metal修Timing 在芯片设计中&#xff0c;Metal&#xff08;金…

【数据结构】List介绍

目录 1. 什么是List 2. 常见接口介绍 3. List的使用 1. 什么是List 在集合框架中&#xff0c;List是一个接口&#xff0c;继承自Collection。此时extends意为拓展 Collection也是一个接口&#xff0c;该接口中规范了后序容器中常用的一些方法&#xff0c;具体如下所示&…

文件上传漏洞

pass-1 判断本关文件上传检测方式 ①显示源码 本pass在客户端使用js对不合法图片进行检查!js前端检测 2、针对防御措施进行绕过上传 通过JS 限制上传的文件类型&#xff0c;对于这种情况&#xff0c;我们可以采用以下几种方式绕过&#xff1a; 修改JS文件; 上传png后缀的…

深入Flink运行时架构:JobManager与TaskManager协作全解析

深入Flink运行时架构:JobManager与TaskManager协作全解析 一、Flink分布式执行模型剖析 1.1 运行时架构全景视图 核心组件交互关系: #mermaid-svg-tMSqMSsKP6vwUZi3 {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-s…

股票-K线

一根K线记录的是某股票一个周期的价格变动情况,其周期可以分为月k线、周k线、日k线、小时线等等。 单根K线的构成要素,通常有以下几部分: 开盘价、收盘价、最高价、最低价、实体、上影线、下影线。 1、阳K线 在阳K线中, 最上端的线段为上影线,上影线的最高点为最高价,…

行为模式---策略模式

概念 策略模式是一种行为设计摸是&#xff0c;它的核心思想是将一些列的算法封装成独立的对象&#xff0c;并使它们可以相互替换&#xff0c;通过上下文进行调用。 策略模式通过算法抽象为独立的策略类&#xff0c;客户端可以根据自身需求选择不同的策略类来完成任务、这种方…

3.3.2 Proteus第一个仿真图

文章目录 文章介绍0 效果图1 新建“点灯”项目2 添加元器件3 元器件布局接线4 补充 文章介绍 本文介绍&#xff1a;使用Proteus仿真软件画第一个仿真图 0 效果图 1 新建“点灯”项目 修改项目名称和路径&#xff0c;之后一直点“下一步”直到完成 2 添加元器件 点击元…

Diffusion-Probabilistic-Models环境配置

1、相关地址 代码地址:https://github.com/Sohl-Dickstein/Diffusion-Probabilistic-Models 论文地址:https://arxiv.org/abs/2006.11239 2、python2.7 环境安装 conda create -n theano python2.7 -y conda activate theano3、包安装 下载合适的版本&#xff0c;也就是201…

机器学习(吴恩达)

一, 机器学习 机器学习定义: 计算机能够在没有明确的编程情况下学习 特征: 特征是描述样本的属性或变量&#xff0c;是模型用来学习和预测的基础。如: 房屋面积, 地理位置 标签: 监督学习中需要预测的目标变量&#xff0c;是模型的输出目标。如: 房屋价格 样本: 如: {面积100㎡…

electron 安装报错:RequestError: certificate has expired

在使用 yarn 安装 electron 时&#xff0c;报证书过期的错误。原因是以前使用的阿里的镜像已经过期&#xff0c;改成新的镜像地址就可以了。 报错信息 yarn add electron --dev yarn add v1.22.5 info No lockfile found. [1/4] Resolving packages... ⠁ (node:33196) [DEP0…

《历史代码分析》5、动态控制列表的列

​​ 本系列《历史代码分析》为工作中遇到具有代表性的代码。今天我们讲一下&#xff0c;动态展示列表的列&#xff0c;因为找不到代码了&#xff0c;所有本篇用图展示。 举个栗子 ​​ 我们希望能够动态的控制列表的列&#xff0c;例如&#xff0c;英语老师只想知道自己学…

【网络协议详解】——QOS技术(学习笔记)

目录 QoS简介 QoS产生的背景 QoS服务模型 基于DiffServ模型的QoS组成 MQC简介 MQC三要素 MQC配置流程 优先级映射配置(DiffServ域模式) 优先级映射概述 优先级映射原理描述 优先级映射 PHB行为 流量监管、流量整形和接口限速简介 流量监管 流量整形 接口限速…

处理动态分页:自动翻页与增量数据抓取策略-数据议事厅

一、案例场景 Lily&#xff08;挥舞着数据报表&#xff09;&#xff1a;“用户反馈我们的股票舆情分析总是缺失最新跟帖&#xff01;这些动态分页像狡猾的狐狸&#xff0c;每次抓取都漏掉关键数据&#xff01;” 小王&#xff08;调试着爬虫代码&#xff09;&#xff1a;“传…

练习-纪律问题(幂运算)

问题描述 一年级一班有 n 个小朋友坐成一排&#xff0c;统计了这些小朋友的爱好后&#xff0c;老师得知了他们一共有 m 种爱好&#xff0c;每个小朋友会拥有这些爱好中的一种。 如果相邻的小朋友爱好相同&#xff0c;那么他们上课时就会忍不住悄悄说话&#xff0c;违反课堂纪…

《基于机器学习的DDoS攻击检测与防御系统设计与实现》开题报告

目录 一、课题的研究目的和意义 1.1课题背景 1.2课题目的 &#xff08;1&#xff09;提高DDoS攻击检测的准确性 &#xff08;2&#xff09;加强DDoS攻击的防御能力 &#xff08;3&#xff09;提升网络安全防护的技术水平 1.3课题意义 &#xff08;1&#xff09;理论意义…

【Java项目】基于JSP的幼儿教育管理系统

【Java项目】基于JSP的幼儿教育管理系统 技术简介&#xff1a;采用JSP技术、B/S结构、MYSQL数据库等实现。 系统简介&#xff1a;幼儿教育管理系统&#xff0c;主要的模块包括查看&#xff1b;管理员&#xff1b;个人中心、用户管理、学生信息管理、班级信息管理、缴费信息管理…

如何将本地已有的仓库上传到gitee (使用UGit)

1、登录Gitee。 2、点击个人头像旁边的加号&#xff0c;选择新建仓库&#xff1a; 3、填写仓库相关信息 4、复制Gitee仓库的地址 5、绑定我们的本地仓库与远程仓库 6、将本地仓库发布&#xff08;推送&#xff09;到远程仓库&#xff1a; 注意到此处报错&#xff…