【机器学习监督学习】:从原理到实践,探索算法奥秘,揭示数据标注、模型训练与预测的全过程,助力人工智能技术应用与发展

   🌟个人主页:落叶

  🌟当前专栏:机器学习专栏

目录

线性回归(Linear Regression)

基本概念

数学模型

优缺点

利用Python实现线性回归

 逻辑回归(Logistic Regression)

3.2. 数学模型

优缺点

 Python实现逻辑回归

支持向量机(Support Vector Machine, SVM)

基本概念

4.2. 数学模型

4.3. 优缺点

Python实现向量机

决策树(Decision Tree)

. 基本概念

5.2. 数学模型

5.3. 优缺点

 随机森林(Random Forest)

基本概念

6.2. 数学模型

6.3. 优缺点

代码解释

7.1. 数据生成与预处理

7.2. 模型训练与评估

8. 总结

完整代码


摘要:监督学习(Supervised Learning)是机器学习的重要组成部分,旨在通过学习带有标签的训练数据来构建预测模型。本文将深入探讨五种经典的监督学习算法:线性回归(Linear Regression)、逻辑回归(Logistic Regression)、支持向量机(Support Vector Machine, SVM)、决策树(Decision Tree)和随机森林(Random Forest)。每种算法都将从基本概念、数学原理、优缺点以及Python代码实现等方面进行详细讲解,并通过实际案例帮助读者更好地理解这些算法的工作原理和应用场景。

 引言

监督学习是机器学习的一个核心领域,其目标是学习输入特征(特征变量)与输出标签(目标变量)之间的映射关系,以便对新的、未标记的数据进行准确的预测或分类。监督学习主要分为两类任务:

  • 回归问题:预测连续型目标变量,如房价预测、股票价格预测等。
  • 分类问题:预测离散型目标变量,如垃圾邮件识别、图像分类等。

本文将详细介绍五种经典的监督学习算法:线性回归、逻辑回归、支持向量机、决策树和随机森林。每种算法都将从基本概念、数学原理、优缺点以及Python代码实现等方面进行详细讲解,并通过实际案例帮助读者更好地理解这些算法的工作原理和应用场景。

线性回归(Linear Regression)

基本概念

线性回归是监督学习中用于处理回归问题的一种基本算法。它通过线性组合输入特征来预测目标变量的连续值。线性回归假设目标变量与输入特征之间存在线性关系。

数学模型

  • 线性模型:

  • 目标:最小化预测值与真实值之间的误差。常用的损失函数是均方误差(Mean Squared Error, MSE):

  • 优化算法:使用最小二乘法(Ordinary Least Squares, OLS)或梯度下降法(Gradient Descent)来求解模型参数。

优缺点

优点

  • 模型简单,易于理解和解释。
  • 计算效率高,适用于大规模数据集。
  • 适用于线性可分的数据。

缺点

  • 只能处理线性关系,对非线性关系效果不佳。
  • 对异常值敏感。
  • 容易欠拟合。

利用Python实现线性回归

import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split, GridSearchCV, RandomizedSearchCV
from sklearn.linear_model import Ridge, Lasso
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt# 生成示例数据
np.random.seed(42)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 定义参数范围
param_grid = {'alpha': [0.1, 1.0, 10.0, 100.0]}# 网格搜索Ridge回归
ridge = Ridge()
grid_search = GridSearchCV(ridge, param_grid, cv=5, scoring='neg_mean_squared_error')
grid_search.fit(X_train, y_train)print(f"最佳参数: {grid_search.best_params_}")
print(f"最佳交叉验证得分: {grid_search.best_score_}")# 预测
y_pred_ridge = grid_search.predict(X_test)# 评估
mse_ridge = mean_squared_error(y_test, y_pred_ridge)
r2_ridge = r2_score(y_test, y_pred_ridge)
print(f"Ridge回归均方误差: {mse_ridge}")
print(f"Ridge回归R^2得分: {r2_ridge}")# 随机搜索Lasso回归
param_dist = {'alpha': np.logspace(-4, 0, 50)}
lasso = Lasso()
random_search = RandomizedSearchCV(lasso, param_distributions=param_dist, n_iter=20, cv=5, random_state=42, scoring='neg_mean_squared_error')
random_search.fit(X_train, y_train)print(f"最佳参数: {random_search.best_params_}")
print(f"最佳交叉验证得分: {random_search.best_score_}")# 预测
y_pred_lasso = random_search.predict(X_test)# 评估
mse_lasso = mean_squared_error(y_test, y_pred_lasso)
r2_lasso = r2_score(y_test, y_pred_lasso)
print(f"Lasso回归均方误差: {mse_lasso}")
print(f"Lasso回归R^2得分: {r2_lasso}")

 逻辑回归(Logistic Regression)

逻辑回归是一种用于分类问题的线性模型,主要用于处理二分类问题。它通过线性组合输入特征,并使用逻辑函数(Sigmoid函数)将线性输出映射到一个概率值,表示样本属于某一类别的可能性。

3.2. 数学模型

线性组合

Sigmoid函数

损失函数(交叉熵损失):

优化算法:梯度下降法

优缺点

  • 优点

    • 模型简单,易于理解和解释。
    • 计算效率高,适用于大规模数据集。
    • 可以输出概率值,方便进行概率解释和阈值调整。
  • 缺点

    • 只能处理线性可分问题,对非线性问题效果不佳。
    • 对异常值和多重共线性敏感。
    • 容易欠拟合或过拟合,需要进行正则化处理。

 Python实现逻辑回归

from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report, accuracy_score# 定义参数范围
param_grid = {'C': [0.01, 0.1, 1.0, 10.0, 100.0],'penalty': ['l1', 'l2']}# 网格搜索逻辑回归
log_reg = LogisticRegression(solver='liblinear')
grid_search_log = GridSearchCV(log_reg, param_grid, cv=5, scoring='accuracy')
grid_search_log.fit(X_train, y_train)print(f"最佳参数: {grid_search_log.best_params_}")
print(f"最佳交叉验证得分: {grid_search_log.best_score_}")# 预测
y_pred_log = grid_search_log.predict(X_test)# 评估
print("逻辑回归分类报告:")
print(classification_report(y_test, y_pred_log))
print(f"准确率: {accuracy_score(y_test, y_pred_log)}")d)}")

支持向量机(Support Vector Machine, SVM)

基本概念

支持向量机是一种用于分类和回归的监督学习算法。对于二分类问题,SVM通过寻找一个最佳的超平面将不同类别的样本分开,并最大化类别之间的间隔。

4.2. 数学模型

  • 超平面:w⋅x+b=0w⋅x+b=0
  • 目标
  • 优化问题

  • 核函数:用于处理非线性可分问题,如线性核、多项式核、径向基函数(RBF)核等。

4.3. 优缺点

  • 优点

    • 在高维空间中表现良好。
    • 使用核函数可以处理非线性可分问题。
    • 适用于小样本数据集。
  • 缺点

    • 对参数和核函数的选择敏感。
    • 计算复杂度高,尤其是大规模数据集。

Python实现向量机

from sklearn.tree import DecisionTreeClassifier# 定义参数范围
param_grid_tree = {'max_depth': [3, 5, 7, 9, None],'criterion': ['gini', 'entropy'],'min_samples_split': [2, 5, 10]}# 网格搜索决策树
tree = DecisionTreeClassifier(random_state=42)
grid_search_tree = GridSearchCV(tree, param_grid_tree, cv=5, scoring='accuracy')
grid_search_tree.fit(X_train, y_train)print(f"最佳参数: {grid_search_tree.best_params_}")
print(f"最佳交叉验证得分: {grid_search_tree.best_score_}")# 预测
y_pred_tree = grid_search_tree.predict(X_test)# 评估
print("决策树分类报告:")
print(classification_report(y_test, y_pred_tree))
print(f"决策树准确率: {accuracy_score(y_test, y_pred_tree)}")

决策树(Decision Tree)

. 基本概念

决策树是一种用于分类和回归的模型。它通过递归地分割数据集,构建一个树状结构,每个节点表示一个特征上的测试,每个分支表示测试的结果,最终的叶子节点表示类别或预测值。

5.2. 数学模型

  • 分裂准则
    • 信息增益(Information Gain)
    • 基尼不纯度(Gini Impurity)
    • 均方误差(Mean Squared Error)
  • 树的构建
    • 递归地选择最佳特征进行分裂,直到满足停止条件。

5.3. 优缺点

  • 优点

    • 模型易于理解和解释。
    • 不需要特征缩放。
    • 可以处理非线性关系。
  • 缺点

    • 容易过拟合,尤其是树深度较大时。
    • 对数据中的噪声和异常值敏感。
    • 不稳定,数据变化可能导致树结构变化。
from sklearn.tree import DecisionTreeClassifier# 定义参数范围
param_grid_tree = {'max_depth': [3, 5, 7, 9, None],'criterion': ['gini', 'entropy'],'min_samples_split': [2, 5, 10]}# 网格搜索决策树
tree = DecisionTreeClassifier(random_state=42)
grid_search_tree = GridSearchCV(tree, param_grid_tree, cv=5, scoring='accuracy')
grid_search_tree.fit(X_train, y_train)print(f"最佳参数: {grid_search_tree.best_params_}")
print(f"最佳交叉验证得分: {grid_search_tree.best_score_}")# 预测
y_pred_tree = grid_search_tree.predict(X_test)# 评估
print("决策树分类报告:")
print(classification_report(y_test, y_pred_tree))
print(f"决策树准确率: {accuracy_score(y_test, y_pred_tree)}")

 随机森林(Random Forest)

上面的图片可以直观的表达决策树的逻辑。选择好瓜的时候,我们首先要判断一个西瓜的纹理,如果纹理很模糊,那么这个挂一定是坏瓜;如果这个瓜的纹理稍微模糊,就去判断这个西瓜的触感怎么样。如果这个瓜的纹理比较清晰,那么接下来我们可以通过观察这个瓜的各个部分比如根蒂、色泽以及触感去一步一步判断一个瓜的好坏。这个就是决策树在分类问题中非常典型的例子。当决策树用于回归问题的时候,每个叶子节点就是一个一个实数值。 

基本概念

随机森林是一种集成学习算法,它通过构建多个决策树并结合它们的预测结果来提高模型的准确性和鲁棒性。

6.2. 数学模型

  • 集成方法:Bagging(Bootstrap Aggregating)
  • 特征选择:在每个节点随机选择一部分特征进行分裂。
  • 投票机制:最终预测结果由多个决策树投票决定。

6.3. 优缺点

  • 优点

    • 有效防止过拟合。
    • 鲁棒性强,对噪声和异常值不敏感。
    • 适用于大规模数据集。
  • 缺点

    • 模型复杂度高,训练时间长。
    • 难以解释,尤其是树的数量较多时。
from sklearn.ensemble import RandomForestClassifier# 定义参数范围
param_grid_forest = {'n_estimators': [50, 100, 200],'max_depth': [3, 5, 7, 9, None],'criterion': ['gini', 'entropy']}# 网格搜索随机森林
forest = RandomForestClassifier(random_state=42)
grid_search_forest = GridSearchCV(forest, param_grid_forest, cv=5, scoring='accuracy')
grid_search_forest.fit(X_train, y_train)print(f"最佳参数: {grid_search_forest.best_params_}")
print(f"最佳交叉验证得分: {grid_search_forest.best_score_}")# 预测
y_pred_forest = grid_search_forest.predict(X_test)# 评估
print("随机森林分类报告:")
print(classification_report(y_test, y_pred_forest))
print(f"随机森林准确率: {accuracy_score(y_test, y_pred_forest)}")

代码解释

7.1. 数据生成与预处理

  • 线性回归

    • 生成100个样本,每个样本有一个特征。
    • 使用线性模型生成目标变量,并添加随机噪声。
    • 分割数据集为训练集和测试集。
    • 训练线性回归模型,并评估模型性能。
  • 逻辑回归SVM决策树随机森林

    • 使用鸢尾花数据集(Iris dataset)进行二分类。
    • 分割数据集为训练集和测试集。
    • 标准化处理。
    • 训练模型,并评估模型性能。

7.2. 模型训练与评估

  • 线性回归

    • 使用 LinearRegression 类训练模型。
    • 评估指标包括均方误差(MSE)和R^2得分。
  • 逻辑回归SVM决策树随机森林

    • 使用 LogisticRegressionSVCDecisionTreeClassifierRandomForestClassifier 类训练模型。
    • 评估指标包括分类报告和准确率。

8. 总结

本文详细介绍了五种经典的监督学习算法:线性回归、逻辑回归、支持向量机、决策树和随机森林。每种算法都有其独特的优势和适用场景:

  • 线性回归适用于回归问题,模型简单且易于解释。
  • 逻辑回归适用于二分类问题,模型简单且易于解释。
  • 支持向量机在处理高维数据和非线性可分问题时表现出色。
  • 决策树易于理解和解释,但容易过拟合。
  • 随机森林通过集成多个决策树,提高了模型的准确性和鲁棒性。

通过理解这些算法的基本概念、数学原理和实现方法,可以更好地应用机器学习技术解决实际问题。

完整代码

以下是完整的Python代码实现:

import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression, LogisticRegression
from sklearn.svm import SVC
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import mean_squared_error, r2_score, classification_report, accuracy_score
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.datasets import load_iris
from sklearn.preprocessing import StandardScaler# 线性回归示例
# 生成示例数据
np.random.seed(42)
X_lin = 2 * np.random.rand(100, 1)
y_lin = 4 + 3 * X_lin + np.random.randn(100, 1)# 分割数据集
X_train_lin, X_test_lin, y_train_lin, y_test_lin = train_test_split(X_lin, y_lin, test_size=0.2, random_state=42)# 训练线性回归模型
model_lin = LinearRegression()
model_lin.fit(X_train_lin, y_train_lin)# 预测
y_pred_lin = model_lin.predict(X_test_lin)# 评估
mse_lin = mean_squared_error(y_test_lin, y_pred_lin)
r2_lin = r2_score(y_test_lin, y_pred_lin)
print("线性回归评估:")
print(f"均方误差: {mse_lin}")
print(f"R^2得分: {r2_lin}")# 可视化
plt.scatter(X_test_lin, y_test_lin, color='blue', label='真实值')
plt.scatter(X_test_lin, y_pred_lin, color='red', label='预测值')
plt.xlabel('特征')
plt.ylabel('目标')
plt.title('线性回归预测结果')
plt.legend()
plt.show()# 逻辑回归示例
# 加载数据
iris = load_iris()
X = iris.data
y = iris.target# 选择两个类别进行二分类
binary_class_mask = y < 2
X = X[binary_class_mask]
y = y[binary_class_mask]# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 标准化
scaler = StandardScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)# 训练逻辑回归模型
model_log = LogisticRegression()
model_log.fit(X_train, y_train)# 预测
y_pred_log = model_log.predict(X_test)# 评估
print("逻辑回归评估:")
print(classification_report(y_test, y_pred_log))
print(f"准确率: {accuracy_score(y_test, y_pred_log)}")# 支持向量机示例
# 训练SVM模型
model_svm = SVC(kernel='linear', C=1.0)
model_svm.fit(X_train, y_train)# 预测
y_pred_svm = model_svm.predict(X_test)# 评估
print("SVM评估:")
print(classification_report(y_test, y_pred_svm))
print(f"SVM准确率: {accuracy_score(y_test, y_pred_svm)}")# 决策树示例
# 训练决策树模型
model_tree = DecisionTreeClassifier(random_state=42)
model_tree.fit(X_train, y_train)# 预测
y_pred_tree = model_tree.predict(X_test)# 评估
print("决策树评估:")
print(classification_report(y_test, y_pred_tree))
print(f"决策树准确率: {accuracy_score(y_test, y_pred_tree)}")# 随机森林示例
# 训练随机森林模型
model_for

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/20366.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数据结构_前言

本次我们将进入一个新的阶段啦~ 要注意哦&#xff1a; 在学数据结构之前&#xff0c;我们要先掌握c语言中所学的指针、结构体、内存的存储这几部分&#xff0c;如果还没太掌握的话&#xff0c;那记得去复习回顾一下噢。 下面我们就一起进入数据结构的学习吧&#xff01; 知识…

VirtualBox 中使用 桥接网卡 并设置 MAC 地址

在 VirtualBox 中使用 桥接网卡 并设置 MAC 地址&#xff0c;可以按照以下步骤操作&#xff1a; 步骤 1&#xff1a;设置桥接网卡 打开 VirtualBox&#xff0c;选择你的虚拟机&#xff0c;点击 “设置” (Settings)。进入 “网络” (Network) 选项卡。在 “适配器 1” (Adapt…

【Mysql】索引

【Mysql】索引 一、索引的简介二、索引结构2.1 Hash2.2 二叉搜索树2.3 B树2.4 B树 三、索引分类3.1 主键索引3.2 普通索引3.3 唯一索引3.4 全文索引3.5 聚集索引3.6 非聚集索引3.7 索引覆盖 四、使用索引4.1 自动创建索引4.2 手动创建索引4.2.1 主键索引4.2.2 唯一索引4.2.3 普…

超全Deepseek资料包,deepseek下载安装部署提示词及本地部署指南介绍

该资料包涵盖了DeepSeek模型的下载、安装、部署以及本地运行的详细指南&#xff0c;适合希望在本地环境中高效运行DeepSeek模型的用户。资料包不仅包括基础的安装步骤&#xff0c;还提供了68G多套独立部署视频教程教程&#xff0c;针对不同硬件配置的模型选择建议&#xff0c;以…

1、Window Android 13模拟器 将编译的映像文件导入Android Studio

1、环境准备 编译环境&#xff1a;Ubuntu-18.04.5编译版本&#xff1a;android13-release下载地址&#xff1a;清华大学开源软件镜像站AOSP # 下载repo # 同步代码&#xff1a;repo init -u https://mirrors.tuna.tsinghua.edu.cn/git/AOSP/platform/manifest -b android13-r…

UE5 Niagara 粒子远处闪烁解决

在UE5.2中使用Niagara粒子系统制作水特效时&#xff0c;远处出现粒子闪烁的问题&#xff0c;通常由渲染精度、深度冲突或LOD设置引起 .效果如下&#xff1a; 处理深度缓冲冲突&#xff08;Z-Fighting&#xff09; 问题原因&#xff1a;粒子与场景几何体深度值重叠导致闪烁。 …

机器学习入门实战 4 - 基本模型

&#x1f4cc; 机器学习基本模型项目实战&#xff1a;预测泰坦尼克号乘客的生存概率 &#x1f6a2; 项目背景 1912 年 4 月 15 日&#xff0c;泰坦尼克号在处女航中撞上冰山沉没&#xff0c;船上 2224 名乘客和船员中&#xff0c;仅有约 710 人生还。 哪些因素决定了生还几率&…

电子制造企业数字化转型实战:基于Odoo构建MES平台的深度解决方案

作者背景 拥有8年乙方项目经理经验、8年甲方信息化管理经验&#xff0c;主导过12个Odoo制造业项目落地&#xff0c;服务客户涵盖消费电子、汽车电子、工业设备等领域。本文基于华东某电子企业&#xff08;以下简称"A公司"&#xff09;的实战案例&#xff0c;解析行业…

Python - 爬虫利器 - BeautifulSoup4常用 API

文章目录 前言BeautifulSoup4 简介主要特点&#xff1a;安装方式: 常用 API1. 创建 BeautifulSoup 对象2. 查找标签find(): 返回匹配的第一个元素find_all(): 返回所有匹配的元素列表select_one() & select(): CSS 选择器 3. 访问标签内容text 属性: 获取标签内纯文本get_t…

排序与算法:选择排序

执行效果 选择排序的执行效果是这样的&#xff1a; 呃……看不懂吗&#xff1f;没关系&#xff0c;接着往下看介绍 算法介绍 选择排序&#xff08;Selection sort&#xff09;是一种简单直观的排序算法。选择排序的主要优点与数据移动有关。如果某个元素位于正确的最终位置…

Day4:强化学习之Qlearning走迷宫

一、迷宫游戏 1.环境已知 迷宫环境是定义好的&#xff0c;障碍物位置和空位置是已知的&#xff1b; # 定义迷宫 grid [[0, 0, 0, 1, 0],[0, 1, 0, 1, 0],[0, 1, 0, 0, 0],[0, 0, 0, 1, 0],[0, 1, 1, 1, 0] ] 2.奖励方式已知 如果碰到障碍物则得-1&#xff0c;如果到终点则…

Windows 环境下 Grafana 安装指南

目录 下载 Grafana 安装 Grafana 方法 1&#xff1a;使用 .msi 安装程序&#xff08;推荐&#xff09; 方法 2&#xff1a;使用 .zip 压缩包 启动 Grafana 访问 Grafana 配置 Grafana&#xff08;可选&#xff09; 卸载 Grafana&#xff08;如果需要&#xff09; 下载 G…

栈回溯方案

注&#xff1a;栈回溯无法很好的定位到未调优化的函数&#xff0c;需要编译前使用 -fno-optimize-sibling-calls 选项禁止尾调优化。 基于unwind的栈回溯 在 arm 架构下&#xff0c;不少32位系统用的是 unwind 形式的栈回溯&#xff0c;这种栈回溯要复杂很多。首先需要程序有一…

[算法学习笔记]1. 枚举与暴力

一、枚举算法 定义 枚举是基于已有知识来猜测答案的问题求解策略。即在已知可能答案的范围内&#xff0c;通过逐一尝试寻找符合条件的解。 2. 核心思想 穷举验证&#xff1a;对可能答案集合中的每一个元素进行尝试终止条件&#xff1a;找到满足条件的解&#xff0c;或遍历完…

突破反爬困境:从服务端渲染到客户端SPA,爬虫环境的演变与新挑战(一)

声明 本文所讨论的内容及技术均纯属学术交流与技术研究目的&#xff0c;旨在探讨和总结互联网数据流动、前后端技术架构及安全防御中的技术演进。文中提及的各类技术手段和策略均仅供技术人员在合法与合规的前提下进行研究、学习与防御测试之用。 作者不支持亦不鼓励任何未经授…

(蓝桥杯——10. 小郑做志愿者)洛斯里克城志愿者问题详解

题目背景 小郑是一名大学生,她决定通过做志愿者来增加自己的综合分。她的任务是帮助游客解决交通困难的问题。洛斯里克城是一个六朝古都,拥有 N 个区域和古老的地铁系统。地铁线路覆盖了树形结构上的某些路径,游客会询问两个区域是否可以通过某条地铁线路直达,以及有多少条…

java基础——抽象类与接口

目录 一、抽象类 1. 定义 2. 示例代码 3. 特点 4. 使用场景 二、接口 1. 定义 2. 示例代码 3. 特点 三、抽象类和接口的区别 四、接口与抽象类的结合 五、自定义排序方法 六、总结 在 Java 编程中&#xff0c;抽象类和接口是两个极为重要的概念&#xff0c;它们在…

HTML应用指南:利用GET请求获取全国乐乐茶门店位置信息

随着新零售业态的快速发展,门店位置信息的获取变得越来越重要。作为新茶饮品牌之一,乐乐茶自2016年在上海五角场创立,乐乐茶不仅在产品质量和服务体验上持续领先,还积极构建广泛的门店网络,以支持其不断增长的用户群体。为了更好地理解和利用这些数据,本篇文章将深入探讨…

蚁剑(AutSword)的下载安装与报错解决

蚁剑&#xff08;AutSword&#xff09;的下载安装与报错解决 1.下载 唯一官方github下载地址 GitHub - AntSwordProject/AntSword-Loader: AntSword 加载器 2.安装 打开并且进入到下面的界面 下载需要的的版本 进行初始化 3.报错 出现下面的报错 4.解决方法 出现上面报错…

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大港中文字节)

论文链接&#xff1a;https://arxiv.org/pdf/2502.05179 项目链接&#xff1a;https://github.com/FoundationVision/FlashVideo 亮点直击 提出了 FlashVideo&#xff0c;一种将视频生成解耦为两个目标的方法&#xff1a;提示匹配度和视觉质量。通过在两个阶段分别调整模型规模…