人工智能中的文本分类:技术突破与实战指导

在本文中,我们全面探讨了文本分类技术的发展历程、基本原理、关键技术、深度学习的应用,以及从RNN到Transformer的技术演进。文章详细介绍了各种模型的原理和实战应用,旨在提供对文本分类技术深入理解的全面视角。

关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人。

file

一、引言

文本分类作为人工智能领域的一个重要分支,其价值和影响力已经深入到我们日常生活的各个角落。在这个数据驱动的时代,文本分类不仅是机器学习和深度学习技术的集中展示,更是智能化应用的基础。

文本分类的重要性

文本分类的核心是将文本数据按照其含义或属性分配到预定义的类别中。这听起来简单,但在实际操作中却极具挑战性。为什么文本分类如此重要?其实,无论是个人用户还是大型企业,我们都在日常生活中与海量的文本数据打交道。例如,电子邮件自动分类系统可以帮助我们区分垃圾邮件和重要邮件,社交媒体平台利用文本分类来过滤不恰当的内容,而在商业智能中,文本分类帮助企业从客户反馈中提取有价值的洞察。

技术发展历程

文本分类技术的发展经历了从简单的基于规则的方法到复杂的机器学习算法,再到今天的深度学习模型的演变。在早期,文本分类依赖于专家系统和简单的统计方法,但这些方法往往受限于规模和灵活性。随着机器学习的发展,尤其是支持向量机(SVM)和随机森林等算法的应用,文本分类的准确性和适应性有了显著提高。进入深度学习时代,卷积神经网络(CNN)和循环神经网络(RNN)等模型极大地提高了文本分类的性能,特别是在处理大规模和复杂的数据集时。

现代应用实例

在现代应用中,文本分类技术已成为许多行业不可或缺的部分。例如,在金融领域,文本分类被用于分析市场趋势和预测股市动态。金融分析师依赖于算法从新闻报道、社交媒体帖子和财报中提取关键信息,以做出更明智的投资决策。此外,医疗保健行业也在利用文本分类技术来处理病历报告,自动识别疾病模式和病人需求,从而提高诊断的准确性和效率。

通过这些例子,我们可以看到,文本分类不仅是技术的展示,更是现代社会运作和发展的关键部分。随着技术的不断进步和应用领域的不断拓展,文本分类的重要性和影响力只会继续增长。

二、文本分类基础

file
文本分类是人工智能和自然语言处理(NLP)领域的一个核心任务,涉及到理解和处理自然语言文本,将其分类到预定义的类别中。这一任务的基础是理解文本的含义,并据此做出决策。

文本分类的定义和目的

简单来说,文本分类是将文本数据(如文档、邮件、网页内容等)自动分配到一个或多个预定义类别的过程。这个过程的目的在于简化信息处理,提高数据组织和检索的效率,以及支持更复杂的信息处理任务,如情感分析或主题识别。

文本分类的关键要素

1. 预处理

  • 重要性:预处理是文本分类的首要步骤,涉及清洗和准备原始文本数据。
  • 方法:包括去除噪音(如特殊字符、无关信息)、词干提取、分词等。

2. 特征提取

  • 概念:将文本转化为机器可理解的形式,通常是数值向量。
  • 技术:传统方法如词袋模型(Bag of Words)和TF-IDF,以及现代方法如词嵌入(Word Embeddings)。

3. 分类算法

  • 多样性:文本分类可采用多种机器学习算法,包括朴素贝叶斯、决策树、支持向量机等。
  • 发展:深度学习方法如卷积神经网络(CNN)和循环神经网络(RNN)为文本分类带来了革命性的改进。

文本分类的应用领域

文本分类广泛应用于多个领域,包括:

  • 垃圾邮件检测:自动识别并过滤垃圾邮件。
  • 情感分析:从用户评论中提取情感倾向,广泛应用于市场分析和社交媒体监控。
  • 主题分类:自动识别文章或文档的主题,用于新闻聚合、内容推荐等。

挑战和考量

文本分类虽然技术成熟,但仍面临一些挑战:

  • 语言多样性和复杂性:不同语言和文化背景下的文本处理需要特定的适应和处理策略。
  • 数据不平衡和偏见:训练数据的质量直接影响分类性能,需要注意数据偏见和不平衡问题。
  • 实时性和可扩展性:在处理大量实时数据时,算法的效率和扩展性变得尤为重要。

在本章中,我们对文本分类的基础进行了全面的介绍,从定义和目的到关键技术和挑战,为深入理解文本分类的技术细节和实际应用打下了坚实的基础。

三、关键技术和模型

file
在深入探讨文本分类的关键技术和模型时,我们会涉及从传统的机器学习方法到现代的深度学习技术。每种技术都有其独特之处,并在特定的应用场景下表现出色。在这一部分,我们将通过一些关键代码段来展示这些模型的实现和应用。

传统机器学习方法

朴素贝叶斯分类器

朴素贝叶斯是一种基于概率的简单分类器,广泛用于文本分类。以下是使用Python和scikit-learn实现的一个简单例子:

from sklearn.feature_extraction.text import CountVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.pipeline import Pipeline# 创建一个文本分类管道
text_clf_nb = Pipeline([('vect', CountVectorizer()),('clf', MultinomialNB()),
])# 示例数据
train_texts = ["This is a good book", "This is a bad movie"]
train_labels = [0, 1]  # 0代表正面,1代表负面# 训练模型
text_clf_nb.fit(train_texts, train_labels)

支持向量机(SVM)

支持向量机(SVM)是另一种常用的文本分类方法,特别适用于高维数据。以下是使用SVM的示例代码:

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.svm import SVC
from sklearn.pipeline import Pipeline# 创建一个文本分类管道
text_clf_svm = Pipeline([('tfidf', TfidfVectorizer()),('clf', SVC(kernel='linear')),
])# 训练模型
text_clf_svm.fit(train_texts, train_labels)

深度学习方法

卷积神经网络(CNN)

卷积神经网络(CNN)在图像处理领域表现突出,也被成功应用于文本分类。以下是使用PyTorch实现文本分类的CNN模型的简单例子:

import torch
import torch.nn as nn
import torch.nn.functional as Fclass TextCNN(nn.Module):def __init__(self, vocab_size, embed_dim, num_classes):super(TextCNN, self).__init__()self.embedding = nn.Embedding(vocab_size, embed_dim)self.conv = nn.Conv2d(1, 100, (3, embed_dim))self.fc = nn.Linear(100, num_classes)def forward(self, x):x = self.embedding(x)  # Embedding layerx = x.unsqueeze(1)  # Add channel dimensionx = F.relu(self.conv(x)).squeeze(3)  # Convolution layerx = F.max_pool1d(x, x.size(2)).squeeze(2)  # Max poolingx = self.fc(x)  # Fully connected layerreturn x# 示例网络创建
vocab_size = 1000  # 词汇表大小
embed_dim = 100   # 嵌入层维度
num_classes = 2   # 类别数
model = TextCNN(vocab_size, embed_dim, num_classes)

循环神经网络(RNN)和LSTM

循环神经网络(RNN)及其变体LSTM(长短期记忆网络)在处理序列数据,如文本,方面非常有效。以下是使用PyTorch实现RNN的示例:

class TextRNN(nn.Module):def __init__(self, vocab_size, embed_dim, hidden_dim, num_classes):super(TextRNN, self).__init__()self.embedding = nn.Embedding(vocab_size, embed_dim)self.rnn = nn.RNN(embed_dim, hidden_dim, batch_first=True)self.fc = nn.Linear(hidden_dim, num_classes)def forward(self, x):x = self.embedding(x)x, _ = self.rnn(x)  # RNN layerx = x[:, -1, :]  # 获取序列的最后一个时间步的输出x = self.fc(x)return x# 示例网络创建
hidden_dim = 128  # 隐藏层维度
model = TextRNN(vocab_size, embed_dim, hidden_dim, num_classes)

这些代码段展示了不同文本分类技术的实现,从简单的机器学习模型到复杂的深度学习网络。在接下来的章节中,我们将进一步探讨这些模型的应用案例和性能评估。

四、深度学习在文本分类中的应用

深度学习技术已成为文本分类领域的重要推动力,为处理自然语言带来了前所未有的效果。在这一部分,我们将探讨深度学习在文本分类中的几种关键应用,并通过示例代码展示这些模型的实现。

卷积神经网络(CNN)的应用

CNN在文本分类中的应用,主要是利用其在提取局部特征方面的优势。以下是用PyTorch实现的一个简单的文本分类CNN模型:

import torch
import torch.nn as nn
import torch.nn.functional as Fclass TextCNN(nn.Module):def __init__(self, vocab_size, embed_dim, num_classes):super(TextCNN, self).__init__()self.embedding = nn.Embedding(vocab_size, embed_dim)self.conv1 = nn.Conv2d(1, 100, (3, embed_dim))self.conv2 = nn.Conv2d(1, 100, (4, embed_dim))self.conv3 = nn.Conv2d(1, 100, (5, embed_dim))self.fc = nn.Linear(300, num_classes)def forward(self, x):x = self.embedding(x).unsqueeze(1)  # 增加一个维度表示通道x1 = F.relu(self.conv1(x)).squeeze(3)x1 = F.max_pool1d(x1, x1.size(2)).squeeze(2)x2 = F.relu(self.conv2(x)).squeeze(3)x2 = F.max_pool1d(x2, x2.size(2)).squeeze(2)x3 = F.relu(self.conv3(x)).squeeze(3)x3 = F.max_pool1d(x3, x3.size(2)).squeeze(2)x = torch.cat((x1, x2, x3), 1)  # 合并特征x = self.fc(x)return x# 示例网络创建
vocab_size = 1000
embed_dim = 100
num_classes = 2
model = TextCNN(vocab_size, embed_dim, num_classes)

循环神经网络(RNN)和LSTM

RNN和LSTM在处理文本序列时表现出色,特别是在理解长文本和上下文信息方面。以下是使用PyTorch实现的LSTM模型:

class TextLSTM(nn.Module):def __init__(self, vocab_size, embed_dim, hidden_dim, num_classes):super(TextLSTM, self).__init__()self.embedding = nn.Embedding(vocab_size, embed_dim)self.lstm = nn.LSTM(embed_dim, hidden_dim, batch_first=True)self.fc = nn.Linear(hidden_dim, num_classes)def forward(self, x):x = self.embedding(x)x, _ = self.lstm(x)  # LSTM layerx = x[:, -1, :]  # 获取序列最后一个时间步的输出x = self.fc(x)return x# 示例网络创建
hidden_dim = 128
model = TextLSTM(vocab_size, embed_dim, hidden_dim, num_classes)

Transformer和BERT

Transformer模型,特别是BERT(Bidirectional Encoder Representations from Transformers),已经成为NLP领域的一个重要里程碑。BERT通过预训练和微调的方式,在多种文本分类任务上取得了革命性的进展。以下是使用Hugging Face的Transformers库来加载预训练的BERT模型并进行微调的代码:

from transformers import BertTokenizer, BertForSequenceClassification
import torch# 加载预训练模型和分词器
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=num_classes)# 示例文本
texts = ["This is a good book", "This is a bad movie"]
inputs = tokenizer(texts, padding=True, truncation=True, return_tensors="pt")# 微调模型
outputs = model(**inputs)

在这一章节中,我们展示了深度学习在文本分类中的几种关键应用,包括CNN、RNN、LSTM和Transformer模型。这些模型的代码实现为我们提供了一个实际操作的视角,帮助我们理解它们在文本分类任务中的作用和效果。

五、PyTorch实战:文本分类

在这一章节中,我们将通过一个具体的例子,展示如何使用PyTorch框架实现文本分类任务。我们将构建一个简单的深度学习模型,用于区分文本的情感倾向,即将文本分类为正面或负面。

场景描述

我们的目标是创建一个文本分类模型,能够根据用户评论的内容,自动判断其为正面或负面评价。这种类型的模型在各种在线平台,如电子商务网站、电影评价网站中都有广泛应用。

输入和输出

  • 输入:用户的文本评论。
  • 输出:二元分类结果,即正面(positive)或负面(negative)。

处理过程

1. 数据预处理

首先,我们需要对文本数据进行预处理,包括分词、去除停用词、转换为小写等,然后将文本转换为数字表示(词嵌入)。

2. 构建模型

我们将使用一个基于LSTM的神经网络模型,它能有效地处理文本数据的序列特性。

3. 训练模型

使用标记好的数据集来训练我们的模型,通过调整参数优化模型性能。

4. 评估模型

在独立的测试集上评估模型性能,确保其准确性和泛化能力。

完整的PyTorch实现代码

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, Dataset
import torch.nn.functional as F# 示例数据集
class TextDataset(Dataset):def __init__(self, texts, labels):self.texts = textsself.labels = labelsdef __len__(self):return len(self.texts)def __getitem__(self, idx):return self.texts[idx], self.labels[idx]# 文本分类模型
class TextClassifier(nn.Module):def __init__(self, vocab_size, embed_dim, hidden_dim, num_classes):super(TextClassifier, self).__init__()self.embedding = nn.Embedding(vocab_size, embed_dim)self.lstm = nn.LSTM(embed_dim, hidden_dim, batch_first=True)self.fc = nn.Linear(hidden_dim, num_classes)def forward(self, x):x = self.embedding(x)x, _ = self.lstm(x)x = x[:, -1, :]x = self.fc(x)return x# 参数设置
vocab_size = 10000  # 词汇表大小
embed_dim = 100    # 嵌入维度
hidden_dim = 128   # LSTM隐藏层维度
num_classes = 2    # 类别数(正面/负面)
batch_size = 64    # 批处理大小
learning_rate = 0.001  # 学习率# 数据准备
train_dataset = TextDataset([...], [...])  # 训练数据集
test_dataset = TextDataset([...], [...])   # 测试数据集train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)# 初始化模型
model = TextClassifier(vocab_size, embed_dim, hidden_dim, num_classes)
optimizer = optim.Adam(model.parameters(), lr=learning_rate)# 训练过程
for epoch in range(num_epochs):for texts, labels in train_loader:outputs = model(texts)loss = F.cross_entropy(outputs, labels)optimizer.zero_grad()loss.backward()optimizer.step()# 测试过程
correct = 0
total = 0
with torch.no_grad():for texts, labels in test_loader:outputs = model(texts)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'Accuracy of the model on the test texts: {100 * correct / total}%')

六、总结

在本文中,我们对文本分类技术进行了全面的探讨,从其基本原理到高级应用,从传统机器学习方法到最新的深度学习技术。我们的目的是为读者提供一个从基础到前沿的知识架构,帮助他们深入理解文本分类在人工智能领域的重要地位和发展趋势。

  1. 技术融合的重要性:文本分类的进步不仅仅源于单一技术的突破,而是多种技术的融合与创新。例如,深度学习的兴起给传统的文本分类方法带来了新的生命力,而最新的模型如Transformer则是自然语言处理领域的一个重大革命。

  2. 数据的核心作用:无论技术多么先进,高质量的数据始终是文本分类成功的关键。数据的准备、预处理和增强对于构建高效、准确的模型至关重要。

  3. 模型的可解释性与道德责任:随着文本分类技术的广泛应用,模型的可解释性和道德责任成为了不可忽视的话题。如何确保模型的决策公平、透明,并考虑到潜在的伦理影响,是我们未来需要深入探讨的问题。

  4. 持续的技术革新:文本分类领域持续经历着快速的技术革新。从最初的基于规则的系统,到现在的基于深度学习的模型,技术的进步推动了文本分类应用的边界不断扩展。

  5. 实践与理论的结合:理论知识和实际应用的结合是理解和掌握文本分类技术的关键。通过实战案例,我们能更深刻地理解理论,并在实际问题中找到合适的解决方案。

在文本分类的未来发展中,我们预计将看到更多的技术创新和应用探索。这不仅会推动人工智能领域的进步,也将在更广泛的领域产生深远的影响。我们期待看到这些技术如何在不同的行业中发挥作用,同时也关注它们如何更好地服务于社会和个人。

关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/217720.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

探索SSL证书的应用场景,远不止网站,还有小程序、App Store等

说到SSL证书,我们都知道其是用于实现HTTPS加密保障数据安全的重要工具,在建设网站的时候经常会部署SSL证书。但实际上,SSL证书的应用场景远不止网站,它还被广泛地应用到小程序、App Store、抖音广告、邮件服务器以及各种物联网设备…

web网络安全

web安全 一,xss 跨站脚本攻击(全称Cross Site Scripting,为和CSS(层叠样式表)区分,简称为XSS)是指恶意攻击者在Web页面中插入恶意javascript代码(也可能包含html代码),当用户浏览网页之时&…

html中一个div中平均一行分配四个盒子,可展开与收起所有的盒子

html中一个div中平均一行分配四个盒子&#xff0c;可展开与收起所有的盒子 1.截图显示部分 2.代码展示部分 <!DOCTYPE html> <html lang"en"><head><meta charset"UTF-8"><meta name"viewport" content"wid…

测长机:精度与用途解析

测长机是一种用于测量物体长度或距离的专业测量仪器&#xff0c;而且测量结果能够稳定且可靠。其精度是衡量其优劣的重要标准之一。 在制造业中&#xff0c;长度尺寸是所有几何量尺寸测量的基准。通过测量产品的长度&#xff0c;可以及时发现并纠正尺寸偏差&#xff0c;保证产…

JVM的内存分区以及垃圾收集

1.JVM的内存分区 1.1方法区 方法区(永久代&#xff09;主要用来存储已在虚拟机加载的类的信息、常量、静态变量以及即时编译器编译后的代码信息。该区域是被线程共享的。 1.2虚拟机栈 虚拟机栈也就是我们平时说的栈内存&#xff0c;它是为java方法服务的。每个方法在执行的…

Vue--第八天

Vue3 1.优点&#xff1a; 2.创建&#xff1a; 3.文件&#xff1a; 换运行插件&#xff1a; 4.运行&#xff1a; setup函数&#xff1a; setup函数中获取不到this&#xff08;this 在定义的时候是Undefined) reactive()和ref(): 代码&#xff1a; <script setup> // …

解决el-table组件中,分页后数据的勾选、回显问题?

问题描述&#xff1a; 1、记录一个弹窗点击确定按钮后&#xff0c;table列表所有勾选的数据信息2、再次打开弹窗&#xff0c;回显勾选所有保存的数据信息3、遇到的bug&#xff1a;切换分页&#xff0c;其他页面勾选的数据丢失&#xff1b;点击确认只保存当前页的数据&#xff1…

学习MS Dynamics AX 2012编程开发 1. 了解Dynamics AX 2012

在本章中&#xff0c;您将了解开发环境的结构以及Microsoft Dynamics AX中的开发人员可以访问哪些工具。在本书的第一步演练之后&#xff0c;您将很容易理解著名的Hello World代码&#xff0c;您将知道应用程序对象树中的不同节点代表什么。 以下是您将在本章中学习的一些主题…

圆形多线图

const gaugeData [{value: 80,name: Perfect,title: {offsetCenter: [-100%, -100%]},detail: {valueAnimation: true,offsetCenter: [-70%, -100%]},itemStyle: {borderColor: #fff,borderWidth: 6,borderType: solid // 可选&#xff0c;指定边框类型}},{value: 40,name: Go…

MQ-Det: Multi-modal Queried Object Detection in the Wild

首个支持视觉和文本查询的开放集目标检测方法 NeurIPS2023 文章&#xff1a;https://arxiv.org/abs/2305.18980 代码&#xff1a;https://github.com/YifanXu74/MQ-Det 主框图 摘要 这篇文章提出了MQ-Det&#xff0c;一种高效的架构和预训练策略&#xff0c;它利用文本描述的…

JS的箭头函数this:

箭头函数不会创建自己的this&#xff0c;它只会从自己的作用域链的上一层沿用this。 具体看实例&#xff1a; //以前&#xff1a;谁调用的这个函数 this就指向谁// console.log(this);//window// function fn(){// console.log(this);//window 因为这个函数也是window调用…

【Vue+Python】—— 基于Vue与Python的图书管理系统

文章目录 &#x1f356; 前言&#x1f3b6;一、项目描述✨二、项目展示&#x1f3c6;三、撒花 &#x1f356; 前言 【VuePython】—— 基于Vue与Python的图书管理系统 &#x1f3b6;一、项目描述 描述&#xff1a; 本项目为《基于Vue与Python的图书管理系统》&#xff0c;项目…

hive的分区表和分桶表详解

分区表 Hive中的分区就是把一张大表的数据按照业务需要分散的存储到多个目录&#xff0c;每个目录就称为该表的一个分区。在查询时通过where子句中的表达式选择查询所需要的分区&#xff0c;这样的查询效率会提高很多。 静态分区表基本语法 创建分区表 create table dept_p…

Android 移动端编译 cityhash动态库

最近做项目&#xff0c; 硬件端 需要 用 cityhash 编译一个 动态库 提供给移动端使用&#xff0c;l 记录一下 编译过程 city .cpp // // Created by Administrator on 2023/12/12. // // Copyright (c) 2011 Google, Inc. // // Permission is hereby granted, free of charg…

54 代码审计-TP5框架审计写法分析及代码追踪

目录 知识点1知识点2演示案例:demo代码段自写和规则写分析hsycms-TP框架-不安全写法-未过滤weipan21-TP框架-规则写法-内置过滤 知识点1 调试&#xff0c;访问&#xff0c;路由&#xff0c;配置&#xff0c;版本等 知识点2 自写写法&#xff1a;自己写代码&#xff0c;一步步…

以csv为源 flink 创建paimon 临时表相关 join 操作

目录 概述配置关键配置测试启动 kyuubi执行配置中的命令 bug解决bug01bug02 结束 概述 目标&#xff1a;生产中有需要外部源数据做paimon的数据源&#xff0c;生成临时表&#xff0c;以使用与现有正式表做相关统计及 join 操作。 环境&#xff1a;各组件版本如下 kyuubi 1.8…

互联网加竞赛 python 爬虫与协同过滤的新闻推荐系统

1 前言 &#x1f525; 优质竞赛项目系列&#xff0c;今天要分享的是 &#x1f6a9; python 爬虫与协同过滤的新闻推荐系统 &#x1f947;学长这里给一个题目综合评分(每项满分5分) 难度系数&#xff1a;3分工作量&#xff1a;3分创新点&#xff1a;4分 该项目较为新颖&…

迅速理解什么是通信前置机

通信前置机设在两个通信对象之间&#xff0c;是实质性的物理服务器&#xff0c;适应不同通信协议或数据格式之间的相互转换。 前置机的作用&#xff1a; 隔离——隔离客户端与服务端&#xff0c;保障后端安全减负——处理非核心业务&#xff0c;分担后端服务器压力&#xff0…

Microsoft 365 Copilot正式上线,如何稳定访问体验?

如果将微软对人工智能的投资看成一场豪赌&#xff0c;Microsoft Copilot无疑是现阶段最受瞩目的赌注。2023年9月正式发布的Microsoft Copilot是一种基于大型语言模型&#xff08;LLM&#xff09;和微软图形&#xff08;Microsoft Graph&#xff09;的数据和人工智能&#xff08…

Maven环境搭建及配置

Maven环境搭建及配置 1.下载部署 官方网站下载正式版的Maven文件,打开bin目录&#xff0c;复制路径然后去环境变量中的path下配置环境变量&#xff0c; 如果只有一个用户只需要在上面path配置复制的路径,当然也可以直接在下面配置,下面配置默认给所有用户都配置 设置完成打开控…