第N8周:使用Word2vec实现文本分类

  • 本文为365天深度学习训练营 中的学习记录博客
  • 原作者:K同学啊

一、数据预处理

任务说明:

本次将加入Word2vec使用PyTorch实现中文文本分类,Word2Vec 则是其中的一种词嵌入方法,是一种用于生成词向量的浅层神经网络模型,由Tomas Mikolov及其团队于2013年提出。Word2Vec通过学习大量文本数据,将每个单词表示为一个连续的向量,这些向量可以捕捉单词之间的语义和句法关系。更详细的内容可见训练营内的NLP基础知识,数据示例如下:
在这里插入图片描述
基础任务:
●1. 结合Word2Vec文本内容(第1列)预测文本标签(第2列)
●2. 优化本文网络结构,将准确率提升至89%
●3. 绘制出验证集的ACC与Loss图
进阶任务:
●1. 尝试根据第2周的内容独立实现,尽可能的不看本文的代码

在这里插入图片描述

  1. 加载数据
import torch
import torch.nn as nn
import torchvision
from torchvision import transforms, datasets
import os,PIL,pathlib,warningswarnings.filterwarnings("ignore")             #忽略警告信息# win10系统
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
device

代码输出

device(type='cpu')
import pandas as pd# 加载自定义中文数据
train_data = pd.read_csv('./N8/train.csv', sep='\t', header=None)
train_data.head()

代码输出

01
0还有双鸭山到淮阴的汽车票吗13号的Travel-Query
1从这里怎么回家Travel-Query
2随便播放一首专辑阁楼里的佛里的歌Music-Play
3给看一下墓王之王嘛FilmTele-Play
4我想看挑战两把s686打突变团竞的游戏视频Video-Play
# 构造数据集迭代器
def coustom_data_iter(texts, labels):for x, y in zip(texts, labels):yield x, yx = train_data[0].values[:]
#多类标签的one-hot展开
y = train_data[1].values[:]
x,y

代码输出

(array(['还有双鸭山到淮阴的汽车票吗13号的', '从这里怎么回家', '随便播放一首专辑阁楼里的佛里的歌', ...,'黎耀祥陈豪邓萃雯畲诗曼陈法拉敖嘉年杨怡马浚伟等到场出席', '百事盖世群星星光演唱会有谁', '下周一视频会议的闹钟帮我开开'],dtype=object),array(['Travel-Query', 'Travel-Query', 'Music-Play', ..., 'Radio-Listen','Video-Play', 'Alarm-Update'], dtype=object))

zip 是 Python 中的一个内置函数,它可以将多个序列(列表、元组等)中对应的元素打包成一个个元组,然后返回这些元组组成的一个迭代器。例如,在代码中 zip(texts, labels) 就是将 texts 和 labels 两个列表中对应位置的元素一一打包成元组,返回一个迭代器,每次迭代返回一个元组 (x, y),其中 x 是 texts 中的一个元素,y 是 labels 中对应的一个元素。这样,每次从迭代器中获取一个元素,就相当于从 texts 和 labels 中获取了一组对应的数据。在这里,zip 函数主要用于将输入的 texts 和 labels 打包成一个可迭代的数据集,然后传给后续的模型训练过程使用。

  1. 构建词典

需要另外安装gensim,安装语句pip install gensim,可使用下面博客上提供的镜像进行加速:
常用 镜像_镜像 simple-CSDN博客

from gensim.models.word2vec import Word2Vec
import numpy as np# 训练 Word2Vec 浅层神经网络模型
w2v = Word2Vec(vector_size=100, #是指特征向量的维度,默认为100。min_count=3)     #可以对字典做截断. 词频少于min_count次数的单词会被丢弃掉, 默认值为5。w2v.build_vocab(x)
w2v.train(x,                         total_examples=w2v.corpus_count, epochs=20)

代码输出

(2733274, 3663560)

Word2Vec可以直接训练模型,一步到位。这里分了三步:
●第一步构建一个空模型。
●第二步使用 build_vocab 方法根据输入的文本数据 x 构建词典。build_vocab 方法会统计输入文本中每个词汇出现的次数,并按照词频从高到低的顺序将词汇加入词典中。
●第三步使用 train 方法对模型进行训练,total_examples 参数指定了训练时使用的文本数量,这里使用的是 w2v.corpus_count 属性,表示输入文本的数量。
如果一步到位的话代码为:

w2v = Word2Vec(x, vector_size=100, min_count=3, epochs=20)
w2v

代码输出

<gensim.models.word2vec.Word2Vec at 0x1ccd73d8130>
# 将文本转化为向量
def average_vec(text):vec = np.zeros(100).reshape((1, 100))for word in text:try:vec += w2v.wv[word].reshape((1, 100))except KeyError:continuereturn vec# 将词向量保存为 Ndarray
x_vec = np.concatenate([average_vec(z) for z in x])# 保存 Word2Vec 模型及词向量
w2v.save('./N8/data/w2v_model.pkl')

这段代码定义了一个函数 average_vec(text),它接受一个包含多个词的列表 text 作为输入,并返回这些词对应词向量的平均值。该函数

● 首先初始化一个形状为 (1, 100) 的全零 numpy 数组来表示平均向量。
● 然后遍历 text 中的每个词,并尝试从 Word2Vec 模型 w2v 中使用 wv 属性获取其对应的词向量。如果在模型中找到了该词,函数将其向量加到 vec中。如果未找到该词,函数会继续迭代下一个词。
● 最后,函数返回平均向量 vec。

然后使用列表推导式将 average_vec() 函数应用于列表 x 中的每个元素。得到的平均向量列表使用 np.concatenate() 连接成一个 numpy 数组 x_vec,该数组表示 x 中所有元素的平均向量。x_vec 的形状为 (n, 100),其中 n 是 x 中元素的数量。

train_iter = coustom_data_iter(x_vec, y)
len(x),len(x_vec)

代码输出

(12100, 12100)
label_name = list(set(train_data[1].values[:]))
print(label_name)

代码输出

['Alarm-Update', 'Other', 'Radio-Listen', 'Music-Play', 'TVProgram-Play', 'Video-Play', 'HomeAppliance-Control', 'Weather-Query', 'FilmTele-Play', 'Audio-Play', 'Travel-Query', 'Calendar-Query']

  1. 生成数据批次和迭代器
text_pipeline  = lambda x: average_vec(x)
label_pipeline = lambda x: label_name.index(x)

lambda 表达式的语法为:lambda arguments: expression
其中 arguments 是函数的参数,可以有多个参数,用逗号分隔。expression 是一个表达式,它定义了函数的返回值。

●text_pipeline 函数:接受一个包含多个词的列表 x 作为输入,并返回这些词对应词向量的平均值,即调用了之前定义的 average_vec 函数。这个函数用于将原始文本数据转换为词向量平均值表示的形式。
●label_pipeline 函数:接受一个标签名 x 作为输入,并返回该标签名label_name 列表中的索引。这个函数可以用于将原始标签数据转换为数字索引表示的形式。

text_pipeline("你在干嘛")
array([[-0.04543949,  2.20234346,  1.05058477,  1.08593849, -1.28897751,0.74803635, -0.06330371,  1.58700518,  0.24575421, -1.32403693,-1.1138861 , -3.79198921,  1.51698652, -0.46545837,  0.49368126,0.41732261,  2.8207842 , -1.87699896,  3.80442886, -0.76470409,2.51992944, -0.59959719, -0.39377743, -0.4155187 , -0.80207745,-1.94636255, -1.71751137, -1.15157906,  2.34745611, -0.88811359,1.90659964,  1.23957148, -0.92163226, -0.17471965, -0.04162584,-0.16202128, -0.27601156,  3.61828503, -0.89918844,  0.91991885,0.50985746,  0.35574163, -0.22598114,  1.5940434 ,  0.14057513,0.83770178,  0.99681325, -0.85999402, -2.56938645,  2.08327347,-0.25531955, -1.79517481, -0.71188387,  0.58219229, -0.76276238,-0.64469636,  0.96793754, -0.61803127,  0.26209   ,  1.14042565,1.45644176, -0.8290033 ,  2.47536681, -0.66615486, -0.68457059,0.43816039, -1.67795628,  1.18700068,  1.65407032, -0.07257137,-0.66152814,  0.9839602 ,  1.14941148, -0.30556869, -0.15649345,0.0537428 , -3.64270853,  0.5475641 ,  1.28786314, -0.84606099,-2.1545399 ,  0.01224559, -2.88506868,  2.93610218, -1.7637587 ,-0.78272004,  1.7797319 , -2.45746924, -0.6527113 , -0.3492835 ,0.36112074, -1.80893275,  0.37037453,  1.57843871,  1.93336754,-1.81102024,  0.40875378,  0.9862798 , -2.10714753,  0.37939982]])
label_pipeline("Travel-Query")

代码输出

10
from torch.utils.data import DataLoaderdef collate_batch(batch):label_list, text_list= [], []for (_text, _label) in batch:# 标签列表label_list.append(label_pipeline(_label))# 文本列表processed_text = torch.tensor(text_pipeline(_text), dtype=torch.float32)text_list.append(processed_text)label_list = torch.tensor(label_list, dtype=torch.int64)text_list  = torch.cat(text_list)return text_list.to(device),label_list.to(device)# 数据加载器,调用示例
dataloader = DataLoader(train_iter,batch_size=8,shuffle   =False,collate_fn=collate_batch)

二、模型构建

  1. 搭建模型

注意,这里使用的是最简单的网络,你可以根据自己的基础替换成其他网络,这里就不需要嵌入层了。

from torch import nnclass TextClassificationModel(nn.Module):def __init__(self, num_class):super(TextClassificationModel, self).__init__()self.fc = nn.Linear(100, num_class)def forward(self, text):return self.fc(text)
  1. 初始化模型
num_class  = len(label_name)
vocab_size = 100000
em_size    = 12
model      = TextClassificationModel(num_class).to(device)
  1. 定义训练与评估函数
import timedef train(dataloader):model.train()  # 切换为训练模式total_acc, train_loss, total_count = 0, 0, 0log_interval = 50start_time   = time.time()for idx, (text,label) in enumerate(dataloader):predicted_label = model(text)optimizer.zero_grad()                    # grad属性归零loss = criterion(predicted_label, label) # 计算网络输出和真实值之间的差距,label为真实值loss.backward()                          # 反向传播torch.nn.utils.clip_grad_norm_(model.parameters(), 0.1) # 梯度裁剪optimizer.step()  # 每一步自动更新# 记录acc与losstotal_acc   += (predicted_label.argmax(1) == label).sum().item()train_loss  += loss.item()total_count += label.size(0)if idx % log_interval == 0 and idx > 0:elapsed = time.time() - start_timeprint('| epoch {:1d} | {:4d}/{:4d} batches ''| train_acc {:4.3f} train_loss {:4.5f}'.format(epoch, idx,len(dataloader),total_acc/total_count, train_loss/total_count))total_acc, train_loss, total_count = 0, 0, 0start_time = time.time()def evaluate(dataloader):model.eval()  # 切换为测试模式total_acc, train_loss, total_count = 0, 0, 0with torch.no_grad():for idx, (text,label) in enumerate(dataloader):predicted_label = model(text)loss = criterion(predicted_label, label)  # 计算loss值# 记录测试数据total_acc   += (predicted_label.argmax(1) == label).sum().item()train_loss  += loss.item()total_count += label.size(0)return total_acc/total_count, train_loss/total_count

torch.nn.utils.clip_grad_norm_(model.parameters(), 0.1)是一个PyTorch函数,用于在训练神经网络时限制梯度的大小。这种操作被称为梯度裁剪(gradient clipping),可以防止梯度爆炸问题,从而提高神经网络的稳定性和性能。
在这个函数中:

●model.parameters()表示模型的所有参数。对于一个神经网络,参数通常包括权重和偏置项。
●0.1是一个指定的阈值,表示梯度的最大范数(L2范数)。如果计算出的梯度范数超过这个阈值,梯度会被缩放,使其范数等于阈值。

梯度裁剪的主要目的是防止梯度爆炸。梯度爆炸通常发生在训练深度神经网络时,尤其是在处理长序列数据的循环神经网络(RNN)中。当梯度爆炸时,参数更新可能会变得非常大,导致模型无法收敛或出现数值不稳定。通过限制梯度的大小,梯度裁剪有助于解决这些问题,使模型训练变得更加稳定。

三、训练模型

  1. 拆分数据集并运行模型
from torch.utils.data.dataset  import random_split
from torchtext.data.functional import to_map_style_dataset
import copy
# 超参数
EPOCHS     = 10 # epoch
LR         = 5  # 学习率
BATCH_SIZE = 64 # batch size for trainingcriterion = torch.nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=LR)
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, 1.0, gamma=0.1)
total_accu = None# 构建数据集
train_iter    = coustom_data_iter(train_data[0].values[:], train_data[1].values[:])
train_dataset = to_map_style_dataset(train_iter)split_train_, split_valid_ = random_split(train_dataset,[int(len(train_dataset)*0.8),int(len(train_dataset)*0.2)])train_dataloader = DataLoader(split_train_, batch_size=BATCH_SIZE,shuffle=True, collate_fn=collate_batch)valid_dataloader = DataLoader(split_valid_, batch_size=BATCH_SIZE,shuffle=True, collate_fn=collate_batch)total_val_acc=[]
total_val_loss=[]# best_val_acc = 0    # 设置一个最佳准确率,作为最佳模型的判别指标for epoch in range(1, EPOCHS + 1):epoch_start_time = time.time()train(train_dataloader)val_acc, val_loss = evaluate(valid_dataloader)# 保存最佳模型到 best_model# if val_acc > best_val_acc:#     best_val_acc   = val_acc#     best_model = copy.deepcopy(model)total_val_acc.append(val_acc)total_val_loss.append(val_loss)# 获取当前的学习率lr = optimizer.state_dict()['param_groups'][0]['lr']if total_accu is not None and total_accu > val_acc:scheduler.step()else:total_accu = val_accprint('-' * 69)print('| epoch {:1d} | time: {:4.2f}s | ''valid_acc {:4.3f} valid_loss {:4.3f} | lr {:4.6f}'.format(epoch,time.time() - epoch_start_time,val_acc,val_loss,lr))print('-' * 69)

代码运行结果输出

| epoch 1 |   50/ 152 batches | train_acc 0.748 train_loss 0.02485
| epoch 1 |  100/ 152 batches | train_acc 0.831 train_loss 0.01819
| epoch 1 |  150/ 152 batches | train_acc 0.829 train_loss 0.01851
---------------------------------------------------------------------
| epoch 1 | time: 1.50s | valid_acc 0.811 valid_loss 0.021 | lr 5.000000
---------------------------------------------------------------------
| epoch 2 |   50/ 152 batches | train_acc 0.846 train_loss 0.01745
| epoch 2 |  100/ 152 batches | train_acc 0.844 train_loss 0.01793
| epoch 2 |  150/ 152 batches | train_acc 0.834 train_loss 0.01816
---------------------------------------------------------------------
| epoch 2 | time: 1.48s | valid_acc 0.813 valid_loss 0.024 | lr 5.000000
---------------------------------------------------------------------
| epoch 3 |   50/ 152 batches | train_acc 0.849 train_loss 0.01589
| epoch 3 |  100/ 152 batches | train_acc 0.843 train_loss 0.01812
| epoch 3 |  150/ 152 batches | train_acc 0.852 train_loss 0.01802
---------------------------------------------------------------------
| epoch 3 | time: 1.52s | valid_acc 0.852 valid_loss 0.016 | lr 5.000000
---------------------------------------------------------------------
| epoch 4 |   50/ 152 batches | train_acc 0.861 train_loss 0.01558
| epoch 4 |  100/ 152 batches | train_acc 0.850 train_loss 0.01815
| epoch 4 |  150/ 152 batches | train_acc 0.844 train_loss 0.01657
---------------------------------------------------------------------
| epoch 4 | time: 1.53s | valid_acc 0.827 valid_loss 0.021 | lr 5.000000
---------------------------------------------------------------------
| epoch 5 |   50/ 152 batches | train_acc 0.893 train_loss 0.01051
| epoch 5 |  100/ 152 batches | train_acc 0.895 train_loss 0.00948
| epoch 5 |  150/ 152 batches | train_acc 0.898 train_loss 0.00814
---------------------------------------------------------------------
| epoch 5 | time: 1.44s | valid_acc 0.890 valid_loss 0.010 | lr 0.500000
---------------------------------------------------------------------
| epoch 6 |   50/ 152 batches | train_acc 0.901 train_loss 0.00764
| epoch 6 |  100/ 152 batches | train_acc 0.905 train_loss 0.00723
| epoch 6 |  150/ 152 batches | train_acc 0.897 train_loss 0.00742
---------------------------------------------------------------------
| epoch 6 | time: 1.58s | valid_acc 0.881 valid_loss 0.009 | lr 0.500000
---------------------------------------------------------------------
| epoch 7 |   50/ 152 batches | train_acc 0.916 train_loss 0.00591
| epoch 7 |  100/ 152 batches | train_acc 0.895 train_loss 0.00736
| epoch 7 |  150/ 152 batches | train_acc 0.906 train_loss 0.00620
---------------------------------------------------------------------
| epoch 7 | time: 1.49s | valid_acc 0.889 valid_loss 0.009 | lr 0.050000
---------------------------------------------------------------------
| epoch 8 |   50/ 152 batches | train_acc 0.914 train_loss 0.00633
| epoch 8 |  100/ 152 batches | train_acc 0.908 train_loss 0.00629
| epoch 8 |  150/ 152 batches | train_acc 0.902 train_loss 0.00630
---------------------------------------------------------------------
| epoch 8 | time: 1.51s | valid_acc 0.889 valid_loss 0.009 | lr 0.005000
---------------------------------------------------------------------
| epoch 9 |   50/ 152 batches | train_acc 0.906 train_loss 0.00662
| epoch 9 |  100/ 152 batches | train_acc 0.913 train_loss 0.00653
| epoch 9 |  150/ 152 batches | train_acc 0.908 train_loss 0.00572
---------------------------------------------------------------------
| epoch 9 | time: 1.63s | valid_acc 0.890 valid_loss 0.009 | lr 0.000500
---------------------------------------------------------------------
| epoch 10 |   50/ 152 batches | train_acc 0.905 train_loss 0.00644
| epoch 10 |  100/ 152 batches | train_acc 0.915 train_loss 0.00594
| epoch 10 |  150/ 152 batches | train_acc 0.907 train_loss 0.00648
---------------------------------------------------------------------
| epoch 10 | time: 1.48s | valid_acc 0.890 valid_loss 0.009 | lr 0.000050
---------------------------------------------------------------------
test_acc, test_loss = evaluate(valid_dataloader)
print('模型准确率为:{:5.4f}'.format(test_acc))
模型准确率为:0.8897

2.结果可视化

import matplotlib.pyplot as plt
#隐藏警告
import warnings
warnings.filterwarnings("ignore")               #忽略警告信息
plt.rcParams['font.sans-serif']    = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False      # 用来正常显示负号
plt.rcParams['figure.dpi']         = 100        #分辨率epochs_range = range(EPOCHS)plt.figure(figsize=(12, 3))
plt.subplot(1, 2, 1)plt.plot(epochs_range, total_val_acc, label='Val Accuracy')
plt.legend(loc='lower right')
plt.title('Validation Accuracy')plt.subplot(1, 2, 2)
plt.plot(epochs_range, total_val_loss, label='Val Loss')
plt.legend(loc='upper right')
plt.title('Validation Loss')
plt.show()

代码运行结果输出

在这里插入图片描述

  1. 测试指定数据
def predict(text, text_pipeline):with torch.no_grad():text = torch.tensor(text_pipeline(text), dtype=torch.float32)print(text.shape)output = model(text)return output.argmax(1).item()# ex_text_str = "随便播放一首专辑阁楼里的佛里的歌"
ex_text_str = "还有双鸭山到淮阴的汽车票吗13号的"model = model.to("cpu")print("该文本的类别是:%s" %label_name[predict(ex_text_str, text_pipeline)])

代码输出

torch.Size([1, 100])
该文本的类别是:Travel-Query

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/404560.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

隐语隐私计算实训营「数据分析」第 5 课:隐语PSI介绍及开发实践

深入理解隐语(SecretFlow)中的PSI技术 隐私集合求交(Private Set Intersection, PSI)是隐私计算中的一个重要技术,它允许多方在不泄露自己数据的前提下找出共同的数据交集。在本文中,我们将深入探讨SecretFlow(隐语)中PSI的实现和应用。 PSI的基本概念 PSI是一种特殊的安全多…

鸿蒙内核源码分析(时钟任务篇)

时钟概念 时间是非常重要的概念&#xff0c;我们整个学生阶段有个东西很重要,就是校园铃声. 它控制着上课,下课,吃饭,睡觉的节奏.没有它学校的管理就乱套了,老师拖课想拖多久就多久,那可不行,下课铃声一响就是在告诉老师时间到了,该停止了让学生HAPPY去了. 操作系统也一样&…

php源码编译与初始化

1 php源码编译 解压 yum install -y bzip2 # 安装解压工具 tar -xf php-7.4.12.tar.bz2 # 解压文件./condigure ./configure --prefix/usr/local/php --with-config-file-path/usr/local/php/etc --enable-fpm --with-fpm-usernginx --with-fpm-groupnginx --with-curl --wi…

线程面试题

1.JDK自带的线程池有哪些&#xff1f; 2.线程池中核心线程数与最大线程数与缓冲任务队列的关系&#xff1f; 先使用核心线程执行任务。 当核心线程不足时&#xff0c;新任务入队列等待。 当队列满且线程数未达最大值时&#xff0c;增加非核心线程执行任务。 当队列满且线程…

Leetcode每日刷题之209.长度最小的子数组(C++)

1.题目解析 根据题目我们知道所给的数组均是正整数&#xff0c;我们需要找到的是该数组的子数组&#xff0c;使其子数组内所有元素之和大于或等于给出的目标数字target&#xff0c;然后返回其长度&#xff0c;最终找出所以满足条件的子数组&#xff0c;并且要返回长度最小的子数…

网络硬盘录像机NVR程序源码海思3520D NVR 安防监控智能升级运用方案

随着安防技术的不断发展&#xff0c;传统的监控系统正逐步向智能化方向转变。海思Hi3520D作为一款高性能的网络视频处理芯片&#xff0c;在NVR&#xff08;网络视频录像机&#xff09;领域有着广泛的应用。本方案旨在探讨如何利用海思Hi3520D芯片的强大功能对现有的NVR系统进行…

vue2使用天地图

需求&#xff1a;用vue2使用天地图展示对应点位数据以及开发中出现的问题等&#xff0c;其实天地图的写法和百度地图差不多 注意&#xff01;&#xff01;&#xff01;天地图的接口不稳定&#xff0c;时常报错418&#xff0c;官网也是一样的情况&#xff0c;推荐还是使用百度或…

C++:C/C++的内存管理

目录 C/C内存分布 C语言中动态内存管理方式 C内存管理方式 new/delete操作内置类型 new/delete操作自定义类型 operator new与operator delete函数 new和delete的实现原理 定位new表达式 常见问题 malloc/free和new/delete的区别 内存泄漏 C/C内存分布 我们先来看以…

【机器学习】(基础篇七) —— 神经网络

神经网络 神经网络是一种模仿人脑神经元结构的计算模型&#xff0c;用于处理复杂的数据模式识别和预测问题。它由大量简单的处理单元&#xff08;称为“神经元”或“节点”&#xff09;组成&#xff0c;这些单元通过连接权重相互连接。神经网络可以学习从输入数据到输出结果之…

GitLab Merge Request流水线

GitLab Merge Request 流程文档 为了提升代码质量&#xff0c;让开发人员参与代码review&#xff0c;现在输出Merge Request的流程文档&#xff1a; 1.项目创建各自开发者的分支&#xff0c;命名规则是dev_名字首字母&#xff0c;比如我是dev_cwq.然后把本地分支推到远端orgin…

2024.8.19 学习记录 —— 作业

一、TCP机械臂测试 #include <myhead.h>#define SER_PORT 8888 // 与服务器保持一致 #define SER_IP "192.168.0.114" // 服务器ip地址int main(int argc, const char *argv[]) {// 创建文件描述符打开键盘文件int fd open("/dev/input/event1…

【数学建模】趣味数模问题——舰艇追击问题

问题描述 某缉私舰位于走私船以东 d 10 km&#xff0c;走私船以匀速 u 8 km/h 向北沿直线行驶。缉私舰立即以速度 v 12 km/h 追赶。缉私舰使用雷达进行跟踪&#xff0c;保持瞬时速度方向始终指向走私船。求解缉私舰的追逐路线和追上走私船所需的时间。 方法 理论求解&…

NIO中的异步—ChannelFuture、CloseFuture以及异步提升在NIO中的应用

ChannelFuture 客户端调用connect后返回值为ChannelFuture对象&#xff0c;我们可以利用ChannelFuture中的channel()方法获取到Channel对象。 由于上述代为为客户端实现&#xff0c;若想启动客户端实现连接操作&#xff0c;必须编写服务端代码&#xff0c;实现如下&#xff1a;…

python中的randint如何使用

python中的randint用来生成随机数&#xff0c;在使用randint之前&#xff0c;需要调用random库。random.randint()是随机生成指定范围内的整数&#xff0c;其有两个参数&#xff0c;一个是范围上限&#xff0c;一个是范围下限。 具体用法如下&#xff1a; import random print…

USB3.2 摘录(四)

系列文章目录 USB3.2 摘录&#xff08;一&#xff09; USB3.2 摘录&#xff08;二&#xff09; USB3.2 摘录&#xff08;三&#xff09; USB3.2 摘录&#xff08;四&#xff09; 文章目录 系列文章目录8 协议层&#xff08;Protocol Layer&#xff09;8.8 三个参数地址信息&…

苍穹外卖项目DAY07

苍穹外卖项目Day07 1、缓存菜品 1.1、问题说明 用户端小程序展示的菜品数据都是通过查询数据库获得&#xff0c;如果用户端访问量比较大&#xff0c;数据库访问压力随之增大 1.2、实现思路 通过Redis来缓存菜品的数据&#xff0c;减少数据库查询操作 缓存逻辑分析&#xff…

未来视界,触手可及:揭秘数字透明屏的奇幻之旅

在这个日新月异的科技时代&#xff0c;每一项创新都如同星辰般璀璨&#xff0c;引领着我们向更加智能、更加梦幻的未来迈进。今天&#xff0c;就让我们一起揭开一项颠覆传统视觉体验的前沿科技——数字透明屏的神秘面纱&#xff0c;探索它如何将未来视界&#xff0c;化为触手可…

IDEA:如何在idea中设置自动导包

这里使用的是idea2020版本,但是不同版本操作不会有较大的差别. 在Editer中展开General之后,选中Auto Import,最后勾选中Add unambiguous imports on the fly.

微信视频号评论如何快速采集?三种高效实用的方法

本文将深入探讨如何高效地采集微信视频号评论&#xff0c;通过揭秘三种实用方法&#xff0c;助您迅速掌握这一营销利器。从自动化工具到智能策略&#xff0c;每一步都旨在提升您的市场分析效率&#xff0c;让您在竞争激烈的社交媒体领域中脱颖而出。 一、引言&#xff1a;为何…

探索顶级PDF水印API:PDFBlocks(2024年更新)

引言 在一个敏感信息常常面临风险的时代&#xff0c;能够轻松高效地保护文档的能力至关重要。PDF水印已成为企业和个人寻求保护其知识产权、确保文件保密性的基本工具。 PDFBlocks 文字水印 API是什么&#xff1f; PDFBlocks API 提供了一个强大的解决方案&#xff0c;用于在…