适用于NLP自然语言处理的Python:使用Facebook FastText库

在本文中,我们将研究FastText,它是用于单词嵌入和文本分类的另一个极其有用的模块。

最近我们被客户要求撰写关于NLP自然语言处理的研究报告,包括一些图形和统计输出。 

在本文中,我们将简要探讨FastText库。本文分为两个部分。在第一部分中,我们将看到FastText库如何创建向量表示形式,该向量表示形式可用于查找单词之间的语义相似性。在第二部分中,我们将看到FastText库在文本分类中的应用。

语义相似性的FastText

FastText支持词袋和Skip-Gram模型。在本文中,我们将实现skip-gram模型,由于这些主题非常相似,因此我们选择这些主题以拥有大量数据来创建语料库。您可以根据需要添加更多类似性质的主题。

第一步,我们需要导入所需的库。

$ pip install wikipedia

导入库

以下脚本将所需的库导入我们的应用程序:

from keras.preprocessing.text import Tokenizer
from gensim.models.fasttext import FastText
import numpy as np
import matplotlib.pyplot as plt
import nltk
from string import punctuation
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import sent_tokenize
from nltk import WordPunctTokenizerimport wikipedia
import nltk
nltk.download('punkt')
nltk.download('wordnet')
nltk.download('stopwords')
en_stop = set(nltk.corpus.stopwords.words('english'))%matplotlib inline

对于单词表示和语义相似性,我们可以将Gensim模型用于FastText。

维基百科文章

在这一步中,我们将抓取所需的Wikipedia文章。看下面的脚本:

artificial_intelligence = wikipedia.page("Artificial Intelligence").content
machine_learning = wikipedia.page("Machine Learning").content
deep_learning = wikipedia.page("Deep Learning").content
neural_network = wikipedia.page("Neural Network").contentartificial_intelligence = sent_tokenize(artificial_intelligence)
machine_learning = sent_tokenize(machine_learning)
deep_learning = sent_tokenize(deep_learning)
neural_network = sent_tokenize(neural_network)artificial_intelligence.extend(machine_learning)
artificial_intelligence.extend(deep_learning)
artificial_intelligence.extend(neural_network)

要抓取Wikipedia页面,我们可以使用模块中的page方法wikipedia。您要剪贴的页面名称作为参数传递给page方法。该方法返回WikipediaPage对象,然后您可以使用该对象通过content属性来检索页面内容,如上面的脚本所示。

然后使用该sent_tokenize方法将来自四个Wikipedia页面的抓取的内容标记为句子。该sent_tokenize方法返回句子列表。四个页面的句子分别标记。最后,通过该extend方法将四篇文章中的句子连接在一起。

数据预处理

下一步是通过删除标点符号和数字来清除文本数据。

preprocess_text如下定义的功能执行预处理任务。

import re
from nltk.stem import WordNetLemmatizerstemmer = WordNetLemmatizer()def preprocess_text(document):preprocessed_text = ' '.join(tokens)return preprocessed_text

让我们看看我们的函数是否通过预处理一个伪句子来执行所需的任务:


sent = preprocess_text("Artificial intelligence, is the most advanced technology of the present era")
print(sent)

预处理语句如下所示:

artificial intelligence advanced technology present

您会看到标点符号和停用词已被删除。

创建单词表示

我们已经对语料库进行了预处理。现在是时候使用FastText创建单词表示形式了。首先让我们为FastText模型定义超参数:

embedding_size = 60
window_size = 40
min_word = 5
down_sampling = 1e-2

embedding_size是嵌入向量的大小。

下一个超参数是min_word,它指定语料库中单词生成的最小频率。最后,最频繁出现的单词将通过down_sampling属性指定的数字进行下采样。

现在让我们FastText为单词表示创建模型。

%%time
ft_model = FastText(word_tokenized_corpus,size=embedding_size,window=window_size,min_count=min_word,sample=down_sampling,sg=1,iter=100)

sg参数定义了我们要创建模型的类型。值为1表示我们要创建跳跃语法模型。零指定单词袋模型,这也是默认值。

执行上面的脚本。运行可能需要一些时间。在我的机器上,上述代码运行的时间统计信息如下:

CPU times: user 1min 45s, sys: 434 ms, total: 1min 45s
Wall time: 57.2 s
 print(ft_model.wv['artificial'])

这是输出:

[-3.7653010e-02 -4.5558015e-01  3.2035065e-01 -1.5289043e-014.0645871e-02 -1.8946664e-01  7.0426887e-01  2.8806925e-01-1.8166199e-01  1.7566417e-01  1.1522485e-01 -3.6525184e-01-6.4378887e-01 -1.6650060e-01  7.4625671e-01 -4.8166099e-012.0884991e-01  1.8067230e-01 -6.2647951e-01  2.7614883e-01-3.6478557e-02  1.4782918e-02 -3.3124462e-01  1.9372456e-014.3028224e-02 -8.2326338e-02  1.0356739e-01  4.0792203e-01-2.0596240e-02 -3.5974573e-02  9.9928051e-02  1.7191900e-01-2.1196717e-01  6.4424530e-02 -4.4705093e-02  9.7391091e-02-2.8846195e-01  8.8607501e-03  1.6520244e-01 -3.6626378e-01-6.2017748e-04 -1.5083785e-01 -1.7499258e-01  7.1994811e-02-1.9868813e-01 -3.1733567e-01  1.9832127e-01  1.2799081e-01-7.6522082e-01  5.2335665e-02 -4.5766738e-01 -2.7947658e-013.7890410e-03 -3.8761377e-01 -9.3001537e-02 -1.7128626e-01-1.2923178e-01  3.9627206e-01 -3.6673656e-01  2.2755004e-01]

 现在让我们找到“人造”,“智能”,“机器”,“网络”,“经常出现”,“深度”这五个最相似的词。您可以选择任意数量的单词。以下脚本将打印指定的单词以及5个最相似的单词。


for k,v in semantically_similar_words.items():print(k+":"+str(v))

输出如下:

artificial:['intelligence', 'inspired', 'book', 'academic', 'biological']
intelligence:['artificial', 'human', 'people', 'intelligent', 'general']
machine:['ethic', 'learning', 'concerned', 'argument', 'intelligence']
network:['neural', 'forward', 'deep', 'backpropagation', 'hidden']
recurrent:['rnns', 'short', 'schmidhuber', 'shown', 'feedforward']
deep:['convolutional', 'speech', 'network', 'generative', 'neural']

我们还可以找到任意两个单词的向量之间的余弦相似度,如下所示:

print(ft_model.wv.similarity(w1='artificial', w2='intelligence'))

输出显示值为“ 0.7481”。该值可以介于0到1之间。更高的值表示更高的相似度。

可视化单词相似性

尽管模型中的每个单词都表示为60维向量,但是我们可以使用主成分分析技术来找到两个主成分。然后可以使用两个主要成分在二维空间中绘制单词。


print(all_similar_words)
print(type(all_similar_words))
print(len(all_similar_words))

字典中的每个键都是一个单词。相应的值是所有语义相似的单词的列表。由于我们在“人工”,“智能”,“机器”,“网络”,“经常性”,“深度”这6个词的列表中找到了前5个最相似的词,因此您会发现其中有30个词该all_similar_words列表。

接下来,我们必须找到所有这30个单词的单词向量,然后使用PCA将单词向量的维数从60减小到2。然后可以使用plt方法,该matplotlib.pyplot方法是绘制单词的方法的别名在二维向量空间上。

执行以下脚本以可视化单词:

word_vectors = ft_model.wv[all_similar_words]for word_names, x, y in zip(word_names, p_comps[:, 0], p_comps[:, 1]):plt.annotate(word_names, xy=(x+0.06, y+0.03), xytext=(0, 0), textcoords='offset points')

上面脚本的输出如下所示:

可以看到在文本中经常一起出现的单词在二维平面中也彼此靠近。

用于文本分类的FastText

文本分类是指根据文本的内容将文本数据分类为预定义的类别。情感分析,垃圾邮件检测和标签检测是一些用于文本分类的用例的最常见示例。

数据集

数据集包含多个文件,但我们仅对该yelp_review.csv文件感兴趣。该文件包含有关不同业务(包括餐馆,酒吧,牙医,医生,美容院等)的520万条评论。但是,由于内存限制,我们将仅使用前50,000条记录来训练我们的模型。如果需要,可以尝试更多记录。

让我们导入所需的库并加载数据集:

import pandas as pd
import numpy as npyelp_reviews = pd.read_csv("/content/drive/My Drive/Colab Datasets/yelp_review_short.csv")

在上面的脚本中,我们yelp_review_short.csv使用pd.read_csv函数加载了包含50,000条评论的文件。

通过将评论的数值转换为分类数值,可以简化我们的问题。这将通过在reviews_score数据集中添加新的列来完成。

最后,数据帧的标题如下所示

安装FastText

下一步是导入FastText模型,可以使用以下wget命令从GitHub存储库中导入该命令,如以下脚本所示:

!wget https://github.com/facebookresearch/fastText/archive/v0.1.0.zip

如果您运行上述脚本并看到以下结果,则表明FastText已成功下载:

--2019-08-16 15:05:05--  https://github.com/facebookresearch/fastText/archive/v0.1.0.zip
Resolving github.com (github.com)... 140.82.113.4
Connecting to github.com (github.com)|140.82.113.4|:443... connected.
HTTP request sent, awaiting response... 302 Found
Location: https://codeload.github.com/facebookresearch/fastText/zip/v0.1.0 [following]
--2019-08-16 15:05:05--  https://codeload.github.com/facebookresearch/fastText/zip/v0.1.0
Resolving codeload.github.com (codeload.github.com)... 192.30.255.121
Connecting to codeload.github.com (codeload.github.com)|192.30.255.121|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [application/zip]
Saving to: ‘v0.1.0.zip’v0.1.0.zip              [ <=>                ]  92.06K  --.-KB/s    in 0.03s2019-08-16 15:05:05 (3.26 MB/s) - ‘v0.1.0.zip’ saved [94267]

下一步是解压缩FastText模块。只需键入以下命令:

!unzip v0.1.0.zip

接下来,您必须导航到下载FastText的目录,然后执行!make命令以运行C ++二进制文件。执行以下步骤:

cd fastText-0.1.0
!make

如果看到以下输出,则表明FastText已成功安装在您的计算机上。

c++ -pthread -std=c++0x -O3 -funroll-loops -c src/args.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/dictionary.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/productquantizer.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/matrix.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/qmatrix.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/vector.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/model.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/utils.cc
c++ -pthread -std=c++0x -O3 -funroll-loops -c src/fasttext.cc
c++ -pthread -std=c++0x -O3 -funroll-loops args.o dictionary.o productquantizer.o matrix.o qmatrix.o vector.o model.o utils.o fasttext.o src/main.cc -o fasttext

要验证安装,请执行以下命令:

!./fasttext

您应该看到FastText支持以下命令:

usage: fasttext <command> <args>The commands supported by FastText are:supervised              train a supervised classifierquantize                quantize a model to reduce the memory usagetest                    evaluate a supervised classifierpredict                 predict most likely labelspredict-prob            predict most likely labels with probabilitiesskipgram                train a skipgram modelcbow                    train a cbow modelprint-word-vectors      print word vectors given a trained modelprint-sentence-vectors  print sentence vectors given a trained modelnn                      query for nearest neighborsanalogies               query for analogies

文字分类

在训练FastText模型进行文本分类之前,需要先提及FastText接受特殊格式的数据,具体如下:

_label_tag This is sentence 1
_label_tag2 This is sentence 2.

如果我们查看我们的数据集,它不是所需的格式。具有积极情绪的文本应如下所示:

__label__positive burgers are very big portions here.

同样,负面评论应如下所示:

__label__negative They do not use organic ingredients, but I thi...

以下脚本从数据集中过滤出reviews_scoretext列,然后__label__在该reviews_score列中的所有值之前添加前缀。类似地,\n\ttext列中的空格替换。最后,更新后的数据帧以的形式写入yelp_reviews_updated.txt

import pandas as pd
from io import StringIO
import csvcol = ['reviews_score', 'text']

现在让我们打印更新后的yelp_reviews数据框。

yelp_reviews.head()

您应该看到以下结果:

reviews_score   text
0   __label__positive   Super simple place but amazing nonetheless. It...
1   __label__positive   Small unassuming place that changes their menu...
2   __label__positive   Lester's is located in a beautiful neighborhoo...
3   __label__positive   Love coming here. Yes the place always needs t...
4   __label__positive   Had their chocolate almond croissant and it wa...

同样,数据框的尾部如下所示:

    reviews_score   text
49995   __label__positive   This is an awesome consignment store! They hav...
49996   __label__positive   Awesome laid back atmosphere with made-to-orde...
49997   __label__positive   Today was my first appointment and I can hones...
49998   __label__positive   I love this chic salon. They use the best prod...
49999   __label__positive   This place is delicious. All their meats and s...

我们已经将数据集转换为所需的形状。下一步是将我们的数据分为训练集和测试集。80%的数据(即50,000条记录中的前40,000条记录)将用于训练数据,而20%的数据(最后10,000条记录)将用于评估算法的性能。

以下脚本将数据分为训练集和测试集:

!head -n 40000 "/content/drive/My Drive/Colab Datasets/yelp_reviews_updated.txt" > "/content/drive/My Drive/Colab Datasets/yelp_reviews_train.txt"
!tail -n 10000 "/content/drive/My Drive/Colab Datasets/yelp_reviews_updated.txt" > "/content/drive/My Drive/Colab Datasets/yelp_reviews_test.txt"

yelp_reviews_train.txt便会生成包含训练数据的文件。同样,新生成的yelp_reviews_test.txt文件将包含测试数据。

现在是时候训练我们的FastText文本分类算法了。

%%time
!./fasttext supervised -input "/content/drive/My Drive/Colab Datasets/yelp_reviews_train.txt" -output model_yelp_reviews

为了训练算法,我们必须使用supervised命令并将其传递给输入文件。这是上面脚本的输出:

Read 4M words
Number of words:  177864
Number of labels: 2
Progress: 100.0%  words/sec/thread: 2548017  lr: 0.000000  loss: 0.246120  eta: 0h0m
CPU times: user 212 ms, sys: 48.6 ms, total: 261 ms
Wall time: 15.6 s

您可以通过以下!ls命令查看模型:

!ls

这是输出:

args.o             Makefile         quantization-results.sh
classification-example.sh  matrix.o         README.md
classification-results.sh  model.o          src
CONTRIBUTING.md        model_yelp_reviews.bin   tutorials
dictionary.o           model_yelp_reviews.vec   utils.o
eval.py            PATENTS          vector.o
fasttext           pretrained-vectors.md    wikifil.pl
fasttext.o         productquantizer.o       word-vector-example.sh
get-wikimedia.sh       qmatrix.o            yelp_reviews_train.txt
LICENSE            quantization-example.sh

可以model_yelp_reviews.bin在上面的文档列表中看到。

最后,可以使用以下test命令测试模型。必须在test命令后指定型号名称和测试文件,如下所示:

!./fasttext test model_yelp_reviews.bin "/content/drive/My Drive/Colab Datasets/yelp_reviews_test.txt"

上面脚本的输出如下所示:

N   10000
P@1 0.909
R@1 0.909
Number of examples: 10000

这里P@1是指精度,R@1是指召回率。您可以看到我们的模型达到了0.909的精度和召回率,这相当不错。

现在,让我们尝试清除标点符号和特殊字符的文本,并将其转换为小写字母,以提高文本的一致性。

!cat "/content/drive/My Drive/Colab Datasets/yelp_reviews_train.txt" | sed -e "s/\([.\!?,’/()]\)/ \1 /g" | tr "[:upper:]" "[:lower:]" > "/content/drive/My Drive/Colab Datasets/yelp_reviews_train_clean.txt"

并且以下脚本清除了测试集:

"/content/drive/My Drive/Colab Datasets/yelp_reviews_test.txt" | sed -e "s/\([.\!?,’/()]\)/ \1 /g" | tr "[:upper:]" "[:lower:]" > "/content/drive/My Drive/Colab Datasets/yelp_reviews_test_clean.txt"

现在,我们将在清理的训练集上训练模型:

%%time
!./fasttext supervised -input "/content/drive/My Drive/Colab Datasets/yelp_reviews_train_clean.txt" -output model_yelp_reviews

最后,我们将使用在净化训练集上训练的模型对测试集进行预测:

!./fasttext test model_yelp_reviews.bin "/content/drive/My Drive/Colab Datasets/yelp_reviews_test_clean.txt"

上面脚本的输出如下:

N   10000
P@1 0.915
R@1 0.915
Number of examples: 10000

您会看到精度和召回率都有小幅提高。为了进一步改善模型,您可以增加模型的时代和学习率。以下脚本将元数设置为30,将学习率设置为0.5。

%%time
!./fasttext supervised -input "/content/drive/My Drive/Colab Datasets/yelp_reviews_train_clean.txt" -output model_yelp_reviews -epoch 30 -lr 0.5

结论

最近,已证明FastText模型可用于许多数据集上的单词嵌入和文本分类任务。与其他单词嵌入模型相比,它非常易于使用并且闪电般快速。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/52277.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

足球赛事分析

个人项目根据需求对这个 https://www.dszuqiu.com/ 足球赛事网站的比赛数据进行采集计算格式化处理,同时要满足支持手动设置翻页、指定分钟球队赛事信息、采集速度等 ! 采集比赛结束球队赛事详情页面中 [四合一数据和现场数据] 计算逻辑比较复杂,需结合页面对四合一数据中让球&…

企业微信创建应用和开发应用的相关问题,获取外部联系人信息,聊天工具栏配置

企业微信创建应用&#xff0c;h5页面&#xff0c;获取外部联系人信息&#xff0c;聊天工具栏 创建 进入企业微信后台管理&#xff0c;应用管理 》应用 》自建 -> 创建应用 可见范围是该应用授权可见部门&#xff08;人员&#xff09; 配置 1、点开应用&#xff0c;配置…

脱不下孔乙己的长衫,现代的年轻人该怎么办?

“如果我没读过书&#xff0c;我还可以做别的工作&#xff0c;可我偏偏读过书” “学历本该是我的敲门砖&#xff0c;却成了我脱不下的长衫。” 最近&#xff0c;“脱下孔乙己的长衫”在网上火了。在鲁迅的原著小说中&#xff0c;孔乙己属于知识阶级&#xff08;长衫客&#…

校招污点公司名单火了/ 马斯克与库克误会解除/ 苹果M2 Max跑分泄露…今日更多新鲜事在此...

日报君 发自 凹非寺量子位 | 公众号 QbitAI 大家好&#xff0c;今天是12月1日星期 快来跟日报君看看&#xff0c;今天科技圈发生了哪些新鲜事&#xff5e; 马斯克与库克误会解除 马斯克与苹果的闹剧以和解告终。 当地时间周三下午&#xff0c;马斯克在推特上发布了一段苹果…

学习记录Day002

1.标准化 标准化的培养主要从以下几个方面培养&#xff1a; 规范周报&#xff1a;写好每一次周报就是为以后写小作文打下良好基础。规范代码&#xff1a;规范代码能够提升代码可读性&#xff0c;好的代码习惯能方便自己和他人查阅。小论文&#xff1a;写好小作文就能为未来写大…

高校就业管理系统设计与实现

一&#xff0c;项目简介 在如今社会上&#xff0c;关于信息上面的处理&#xff0c;没有任何一个企业或者个人会忽视&#xff0c;如何让信息急速传递&#xff0c;并且归档储存查询&#xff0c;采用之前的纸张记录模式已经不符合当前使用要求了。所以&#xff0c;对高校就业信息…

双色球号概率预知程序

说来好笑&#xff0c;自己怎么会抽一个小时做这么一个小程序&#xff0c;可能我是太喜欢买彩票但是老中不了的缘故吧。不过老实说这个程序也帮不了你中双色球&#xff0c;娱乐而已。 <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN"> <meta…

Python数据分析:双色球的深度学习预测

双色球是福利彩票的一种玩法&#xff0c;已经卖了有很多年。之前在支付宝上app可以买的&#xff0c;每天2块钱很有益身心健康&#xff0c;比LOL有积极意义。对于双色球这门游戏&#xff0c;刚开始买的时候是纯粹靠感觉&#xff0c;后来百度又看到了百度预测&#xff08;虽然尼玛…

.NET Core 使用 ImageSharp 生成图片

前言 ImageSharp是对.NET Core平台扩展的一个图像处理方案&#xff0c;以往网上的案例多以生成文字及画出简单图形、验证码等方式进行探讨和实践。 分享一下所在公司项目的实际应用案例&#xff0c;导出微信二维码图片&#xff0c;圆形头像等等。 一、源码获取 Git项目地址…

高清Apriltag图片生成和制作

近期需要用到Apriltag图像&#xff0c;作者源码给的图像像素太差&#xff0c;无法满足需要。 国内网站相关资料太少&#xff0c;有的作者还要收费&#xff0c;不理解。本来就是开源的东西。本文详细说明如何生成&#xff0c;并免费附上tag36h11 全系列图片下载链接。 1。 生成…

微信小程序生成海报图片导出相册

前言 小程序内通过静态模板和样式绘制 canvas &#xff0c;导出图片&#xff0c;可用于生成分享图等场景 一、效果预览 二、使用步骤 1.安装引入wxml-to-canvas Step1.运行小程序npm安装命令 npm install --save wxml-to-canvasStep2.JSON 组件声明 {"usingComponents…

chatgpt赋能python:Python中打开图片的方法

Python中打开图片的方法 Python是一种高级编程语言&#xff0c;非常流行和使用&#xff0c;因为它具有简单易用、可读性强、适合各种领域等优点。其中&#xff0c;打开图片也是Python中一个非常常见的操作。 在Python中&#xff0c;可以通过几行代码轻松实现打开图片的功能。…

三分钟4行命令构建chatgpt webapp,支持高并发以及上下文对话功能(2)

个人主页:https://yang1he.gitee.io 干货会越来越多的&#xff0c;欢迎来玩 三分钟4行命令构建chatgpt webapp,支持高并发以及上下文对话功能&#xff08;2&#xff09; version2 version1介绍 上下文对话清除历史信息内网公开 version2新增 重复信息自动去重高并发&#xff0c…

客户端突如其来的“白屏”等待该如何解决?

简介&#xff1a;一起由离线包重构引起的“白屏”等待现象的排查和解决案例 ——本文选自《阿里云SRE技术期刊》2021年02月刊 移动端的混合架构模式给 App 开发带来了崭新的空间&#xff0c;通过 H5 构建的业务模块可以实现高效快速的版本迭代&#xff0c;满足多样化的业务需求…

Postman打开一直加载白屏

问题&#xff1a;以前用的好好的&#xff0c;突然有天白屏打不来&#xff0c;一直加载中无响应 1、上网搜教程&#xff0c;环境变量也设置了POSTMAN_DISABLE_GPU、true 2、%appdata%目录下的postman文件也删除了&#xff08;postman未登录的慎删&#xff0c;可以搜教程应该可以…

微信小游戏可视化开发工具

我们来自微信小游戏的一个小团队&#xff0c;我们希望每个人都可以创建自己的小游戏&#xff0c;分享自己的创意&#xff0c;所以我们实现了一个门槛极低的游戏开发工具&#xff0c;在设计的时候我们尽量注意概念简单同时又可以实现各种类型的游戏&#xff0c;当前还是内测阶段…

基于tkinter制作的一个策略小游戏

目录 前言 登录界面 主界面 宣政殿 地图 吏部 兵部 户部 刑部 工部 礼部 御书房 后宫 宗人府 御马监 锦衣卫 司礼监 京城 后记 前言 前年本科毕业时&#xff0c;利用暑假的时间学习了一点tkinter&#xff0c;当时比较痴迷《君成录》、《皇帝成长计划》等策略养成…

AI绘画初体验(6pen平台)

最近AI绘画似乎很火热&#xff0c;今天体验了AI绘画。 使用平台&#xff1a;6pen 似乎对幻想出来的图片效果不是很好&#xff0c;而对语言简练、写实的图片效果很棒&#xff01; 展示&#xff1a; 1 宇航员在火星上&#xff0c;坐着椅子下象棋&#xff0c;背景是远处的地球 2 …

【回答问题】ChatGPT上线了!给我推荐20个比较流行的AI作画模型!

目录 给我推荐20个比较流行的AI作画模型给我推荐20个比较流行的AI作画模型代码给我推荐20个比较流行的AI作画模型 好的,下面是20个比较流行的AI作画模型: DALL-E GAN Deep Dream CycleGAN StyleGAN pix2pix SketchRNN BigGAN ProGAN ESRGAN SPADE BigVAE StackGAN VQ-VAE 3…

AI绘画——ChilloutMix模型(现实真人,实现写实逼真的图像)

目录 重要提示&#xff1a;首先&#xff0c;我从不建议再生“真实”人物的图像&#xff0c; 但是&#xff0c;照片“逼真”图像。 本人郑重声明&#xff1a;本模型原则上禁止用于训练基于明星、公众人物肖像的风格模型训练&#xff0c;因为这会带来争议&#xff0c;对AI社区…