【ChatGPT】预训练模型微调及其应用(ChatGLM-6B、duckduckgo_search、GPT在科研的应用等)

note

  • instructGPT(基于提示学习的系列模型)——>GPT3.5(大规模预训练语言模型)——>ChatGPT模型(高质量数据标注+反馈学习)。chatGPT三大技术:情景学习、思维链、自然指令学习。
  • GPT4飞跃式提升:多模态、输入字符数量、推理能力、文本创造,如poem、解释图片含义、图表计算等,2022年8月完成训练。
    • 论文:https://cdn.openai.com/papers/gpt-4.pdf
    • ChatGPT Plus:集成GPT-4的ChatGPT升级版,https://chat.openai.com/chat
    • 可以利用chatGPT获取更高质量数据
  • GPT的训练数据可能不够新,所以给出的答案时效性会不够。GPT的使用注意事项:
    • 提示词要清晰、聚焦、内容相关,如问“如何进行时间管理”是合理的问题,“我今天好累,怎么办”就不太合理
    • 持续调教
    • 角色扮演:如问题一开头,说“你是一名教育工作者/心理咨询师等,请从。。角度回答”
    • 创作:如短视频、写作等
  • 合格的prompt:时间、地点、人物、背景、目标、任务

文章目录

  • note
  • 一、预训练模型LLM
  • 二、GPT三大技术
    • 2.1 情景学习
    • 2.2 思维链
    • 2.3 自然指令学习
  • 三、ChatGLM-6B对话模型
  • 四、`duckduckgo_search`+gpt解决实时性问题
  • 五、ChatGPT的应用
    • 5.1 使用上的注意事项
    • 5.2 科研上的应用
    • 5.3 其他应用
  • 六、prompt的案例
  • 七、其他LLM
  • Reference

一、预训练模型LLM

先从熟悉的huggingface使用讲起:

import numpy as np
from datasets import load_dataset, load_metric
from transformers import BertTokenizerFast, BertForTokenClassification, TrainingArguments, Trainer, DataCollatorForTokenClassification
import torch# 加载CoNLL-2003数据集、分词器
dataset = load_dataset('conll2003')
tokenizer = BertTokenizerFast.from_pretrained('bert-base-cased')# 将训练集转换为可训练的特征形式
def tokenize_and_align_labels(examples):tokenized_inputs = tokenizer(examples["tokens"], truncation=True,  is_split_into_words=True)labels = []for i, label in enumerate(examples["ner_tags"]):word_ids = tokenized_inputs.word_ids(batch_index=i)previous_word_idx = Nonelabel_ids = []for word_idx in word_ids:# 将特殊符号的标签设置为-100,以便在计算损失函数时自动忽略if word_idx is None:label_ids.append(-100)# 把标签设置到每个词的第一个token上elif word_idx != previous_word_idx:label_ids.append(label[word_idx])# 对于每个词的其他token也设置为当前标签else:label_ids.append(label[word_idx])previous_word_idx = word_idxlabels.append(label_ids)tokenized_inputs["labels"] = labels# DatasetDict类型return tokenized_inputstokenized_datasets = dataset.map(tokenize_and_align_labels, batched=True, load_from_cache_file=False)# 获取标签列表,并加载预训练模型
label_list = dataset["train"].features["ner_tags"].feature.names
model = BertForTokenClassification.from_pretrained('bert-base-cased', num_labels=len(label_list))# 定义data_collator,并使用seqeval进行评价
data_collator = DataCollatorForTokenClassification(tokenizer)
metric = load_metric("seqeval")# 定义评价指标
def compute_metrics(p):predictions, labels = ppredictions = np.argmax(predictions, axis=2)# 移除需要忽略的下标(之前记为-100)true_predictions = [[label_list[p] for (p, l) in zip(prediction, label) if l != -100]for prediction, label in zip(predictions, labels)]true_labels = [[label_list[l] for (p, l) in zip(prediction, label) if l != -100]for prediction, label in zip(predictions, labels)]results = metric.compute(predictions=true_predictions, references=true_labels)return {"precision": results["overall_precision"],"recall": results["overall_recall"],"f1": results["overall_f1"],"accuracy": results["overall_accuracy"],}# 定义训练参数TrainingArguments和Trainer
args = TrainingArguments("ft-conll2003",                     # 输出路径,存放检查点和其他输出文件evaluation_strategy="epoch",        # 定义每轮结束后进行评价learning_rate=2e-5,                 # 定义初始学习率per_device_train_batch_size=16,     # 定义训练批次大小per_device_eval_batch_size=16,      # 定义测试批次大小num_train_epochs=3,                 # 定义训练轮数
)trainer = Trainer(model,args,train_dataset=tokenized_datasets["train"],eval_dataset=tokenized_datasets["validation"],data_collator=data_collator,tokenizer=tokenizer,compute_metrics=compute_metrics
)# 开始训练!(主流GPU上耗时约几分钟)
trainer.train()
model_path = "./ner_model.pkl"
# torch.save(model.state_dict(), model_path)
torch.save(model, model_path)

二、GPT三大技术

2.1 情景学习

情景学习(In-context learning)

改变了之前需要把大模型用到下游任务的范式。对于一些 LLM 没有见过的新任务,只需要设计一些任务的语言描述,并给出几个任务实例,作为模型的输入,即可让模型从给定的情景中学习新任务并给出满意的回答结果。这种训练方式能够有效提升模型小样本学习的能力。

2.2 思维链

思维链(Chain-of-Thought,CoT)
对于一些逻辑较为复杂的问题,直接向大规模语言模型提问可能会得到不准确的回答,但是如果以提示的方式在输入中给出有逻辑的解题步骤的示例后再提出问题,大模型就能给出正确题解。也就是说将复杂问题拆解为多个子问题解决再从中抽取答案,就可以得到正确的答案。

在这里插入图片描述

2.3 自然指令学习

自然指令学习(Learning from Natural Instructions)
openAI使用了instruct GPT的逻辑,强化学习的人类反馈。
在这里插入图片描述

三、ChatGLM-6B对话模型

  • ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。
  • ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
  • 为了方便下游开发者针对自己的应用场景定制模型,可以基于 P-Tuning v2 的高效参数微调方法 (使用指南) ,INT4 量化级别下最低只需 7GB 显存即可启动微调。
  • 由于 ChatGLM-6B 的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。请大家在使用前了解这些问题,以免产生误解。更大的基于 1300 亿参数 GLM-130B 的 ChatGLM 正在内测开发中。
  • 官方博客:https://chatglm.cn/blog; 官方:https://github.com/THUDM/ChatGLM-6B
  • 注意:下载预训练模型可以即时下载(如下),或者直接在huggingface上下载到当前文件夹里面,创建一个model文件夹,里面放着这坨内容即可,可以直接命令git clone https://huggingface.co/THUDM/chatglm-6b然后修改这个文件名为model。如果是前者,默认是保存到.cache文件夹里面,另外可以参考如何优雅的下载huggingface-transformers模型。
```python
from huggingface_hub import snapshot_download
snapshot_download(repo_id="THUDM/chatglm-6b")

上面提到的git方法时可以使用LFS,即Large File Storage。在使用git lfs track命令后,git push的时候,git lfs会截取要管理的大文件,并将其传至git lfs的服务器中,从而减小仓库的体积

yum install git-lfs
# Make sure you have git-lfs installed
# (https://git-lfs.github.com/)
git lfs install或者直接像以前一样的方法:
```python
from transformers import AutoTokenizer, AutoModelForMaskedLMtokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
model = AutoModelForMaskedLM.from_pretrained("bert-base-uncased")

四、duckduckgo_search+gpt解决实时性问题

DuckDuckGo是一个互联网搜寻引擎,DuckDuckGo强调在传统搜寻引擎的基础上引入各大Web 2.0站点 的内容。其办站哲学主张维护使用者的隐私权,并承诺不监控、不记录使用者的搜寻内容,其提供ddg_suggestions直接获取词语联想、ddg_translate直接中英翻译、duckduckgo_search直接搜索网页、ddg_news直接搜索新闻等多个功能。

地址:https://github.com/deedy5/duckduckgo_search

from duckduckgo_search import ddg_suggestions
from duckduckgo_search import ddg_translate, ddg, ddg_news
ddg_suggestions("马克龙")# 1. 直接获取词条
print("suggetstion test:\n", ddg_suggestions("马克龙"), "\n")
'''
suggetstion test:[{'phrase': '马克龙竞选拍照钱想报销被拒'}, {'phrase': '马克龙希望德尚继续执教国家队'}, {'phrase': '马克龙被兴奋庆祝的球员晾在一边'}, {'phrase': '马克龙将在g20峰会后致电普京'}, {'phrase': '马克龙晒姆巴佩吉鲁比赛照'}, {'phrase': '马克龙访华'}, {'phrase': '马克龙支持将堕胎权写入法国宪法'}, {'phrase': '马克龙妻子'}] 
'''# 2. translate
print("translate test: \n", ddg_translate("中国有多少人口", to = "en"))
'''
translate test: [{'detected_language': 'zh-Hans', 'translated': 'How much population is China', 'original': '中国有多少人口'}]
'''# 3. search page
r = ddg("马克龙、冯德莱恩访华", max_results=5)
for page in r:print("page test:\n", page, "\n")# 4. search news
print("news test:\n", ddg_news("张继科事件", safesearch='Off', time='d', max_results=5))
'''
news test:[{'date': '2023-04-15T05:17:00', 'title': '张继科床照事件引发严重质疑,体育明星该如何保持高尚品德和行为', 'body': '近日,一则关于中国乒乓球运动员张继科的床照事件在互联网上引起了轩然大波。这些照片中,张继科被拍到在床上与一名女子拥抱,并且照片中的氛围颇显暧昧,引发了一场轩然大波。 这一事件让人对张继科的品德产生了严重的质疑,让我们不得不重新审视这位曾经被誉为乒乓球界的偶像的行为。 作为一名公众人物,张继科在社会舞台上担负着很大的社会责任。作为中国乒乓球队的一员,他不仅代表了国家和民族的形象,更是年轻一代的榜样。', 'url': 'https://www.163.com/dy/article/I2C9TJ3B05562MYS.html', 'image': None, 'source': '网易'}, {'date': '2023-04-15T02:11:00', 'title': '张继科事件再传!小时候在网上睡觉可不是那么容易被曝光的', 'body': 'Jike被曝欠债,散播前女友景甜的私密视频,惹来不小的风波。而他本人,也从光鲜亮丽的奥运冠军,摇身一变成为红极一时的"绝情男"。 后来,张继科和皮友良之前就谈过恋爱,这个消息更是让大家震惊。两个人在日常生活中可以说是完全格格不入,甚至都没有过交集。张继科和皮友良也是个人。它是如何走到一起的?不少网友对此提出质疑,认为这只是一种宣传手段,或者说反派是想通过这种方式来拉高自己的知名度。毕竟反派是网红,', 'url': 'https://www.163.com/dy/article/I2BVA6FT05561UMW.html', 'image': None, 'source': '网易'}, {'date': '2023-04-14T17:43:00', 'title': '狗仔曝张继科事件内幕又添新料', 'body': '张继科居住在上海,拥有豪车和高端房产,生活非常奢华。他还玩高尔夫等高端运动,与一些有不良嗜好的朋友交往。在不久前的一些八卦事件中,张继科被指控赌博借钱不还、传播女明星的私密照片等问题。 狗仔还提到张继科和现女友张蕊已经生子,但没有领证,女方很有家底,是个富家千金。狗仔最后还说张继科还曾发过别的女性的私密照。大家认为这个消息是真的吗? 一个人的品德和行为应该是我们选择朋友或伴侣时所关注的首要因素。我', 'url': 'https://new.qq.com/rain/a/20230413A07U8900', 'image': 'https://inews.gtimg.com/om_bt/O7URdZTcE5XJkEV8u4TwAYUcN9khc9uj3FHwyHYpyKETYAA/1000', 'source': '腾讯网'}, {'date': '2023-04-14T11:54:00', 'title': '张继科事件持续发酵!欠债多达1700万,现女友被扒:离过婚生了娃', 'body': '最近一段时间,体坛热度最高的事情,毫无疑问是关于张继科的。这位国乒大满贯得主,目前已经成为众矢之的,而且丑闻仍在持续发酵。最关键的是,现在连娱乐圈也开始扒张继科的猛料了,接下来估计有更多的内幕会被曝光。 众所周知,娱乐圈中有一位"百科全书"式的人物,他有非常多的人脉和资源,因此每次有大事发生之时,吃瓜群众都在等着他发声。没错,这个人就是狗仔卓伟。 近日,卓伟曝光了关于张继科事件的一些后续。他表示,', 'url': 'https://new.qq.com/rain/a/20230414A086WS00', 'image': 'https://inews.gtimg.com/news_bt/ODLPndHCDP435bA9AD5gf85NWhttes0rhCXFFUIl376W8AA/1000', 'source': '腾讯网'}, {'date': '2023-04-14T10:43:00', 'title': '张继科"债主"名单曝光!欠债1.9亿,孙颖莎、陈梦都借给过他钱', 'body': '4月14日,时隔数日,前中国乒乓球运动员、奥运冠军张继科再次登上热搜,成为国内媒体、球迷关注的焦点!日前,娱乐圈第一狗仔卓伟重出江湖,曝出更多关于张继科的猛料、细节,情节远比大家想象中的要恶劣。据卓伟爆料称,张继科将某女明星的隐私视频、照片给债主抵债确有其事。此外,卓伟还在爆料中提到,曾在2020年1月,他接到过一个来自境外的电话,电话那头的人想请他帮忙向景甜要钱。 据电话那头的人透露,张继科因*', 'url': 'https://www.sohu.com/a/666759410_120875314', 'image': 'https://p3.itc.cn/images01/20230414/4d10b6a3d4194ba4bd2c61323b3a9dfe.jpeg', 'source': '搜狐'}]
'''

一个思路:将duckduckgo_search实时结果接入GLM6B进行内容生成。其中GLM6B服务使用flask搭建。

#!/usr/bin/env python
# -*- coding: UTF-8 -*-
import os
import json
from flask import Flask, request
from transformers import AutoModel, AutoTokenizeros.environ["CUDA_VISIBLE_DEVICES"] = "3"
tokenizer = AutoTokenizer.from_pretrained(r"chatglm-6b", trust_remote_code=True,revision="main")
model = AutoModel.from_pretrained(r"chatglm-6b", trust_remote_code=True,revision="main").half().quantize(4).cuda()
model = model.cuda()
model = model.eval()
app = Flask(import_name=__name__)def predict(input_string, history):if history is None:history = []try:response, history = model.chat(tokenizer, input_string, history)return {"msg": "success", "code": 200, "response": response}except Exception as error:return {"msg": "error", "code": 500, "response": error}@app.route("/chat_with_history", methods=["POST", "GET"])
def chat_with_history():data = json.loads(request.data)input_text = data['input_text']history = data.get("history", None)if history is not None:history = json.loads(history)return predict(input_text, history)if __name__ == '__main__':app.run(port=12345, debug=True, host='0.0.0.0')  # 如果是0.0.0.0,则可以被外网访问

五、ChatGPT的应用

5.1 使用上的注意事项

  • 提示词要清晰、聚焦、内容相关,如问“如何进行时间管理”是合理的问题,“我今天好累,怎么办”就不太合理
  • 持续调教
  • 角色扮演:如问题一开头,说“你是一名教育工作者/心理咨询师等,请从。。角度回答”
  • 创作:如短视频、写作等

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 素材查找:帮我找一个案例,最好是2020年后的XX相关案例
  • 语言润色
  • 文案or脚本:提示词:你是一个文案大师,你现在需要撰写xxx的宣传文案,面向用户的特点是:xxx,文案的要求是:xxx。请写出10个xxx的宣传文案。
  • 文本生成AI提示词高阶玩法
    • Instruction(必须): 指令,即你希望模型执行的具体任务。
    • Context(选填): 背景信息,或者说是上下文信息,这可以引导模型做出更好的反应。
    • Input Data(选填): 输入数据,告知模型需要处理的数据。
    • Output Indicator(选填): 输出指示器,告知模型我们要输出的类型或格式。

在这里插入图片描述

5.2 科研上的应用

  • 数据分析,如画图、解释复杂的数据关系
  • 实验
  • latex源码:如公式、表格等
  • 数据收集
  • 嵌套模型创新

在这里插入图片描述

5.3 其他应用

  • ChatGPT + PDF(ChatDOC):https://chatdoc.com/chatdoc/ ;导入pdf文档后可以对其进行提问
  • ChatGPT + Excel:可以让ChatGPT写VBA,然后嵌入到Excel中运行
  • ChatGPT 生成思维导图:让ChatGPT 生成某本书/某篇文档的思维导图,
    • 1)给chatgpt下指令说用markdown格式输出某一主题的内容
    • ​2)内容到你满意后,复制到txt里,再把txt的扩展名该成md
    • ​3)打开xmind,随便新建一个导图,点击文件—导入markdown格式,选择刚才保存的txt即可
  • 导出ChatGPT对话记录的插件:ChatGPT to Markdown / ChatGPT Save Data
  • google chrome上一些能提高生产效率的插件:
    • SciSpace Copilot
    • Compose AI
    • Wiseone
    • UseChatGPT AI
    • Merlin

六、prompt的案例

  • 合格的prompt:时间、地点、人物、背景、目标、任务
  • 案例一:导游

在这里插入图片描述

  • 案例二:辅助工作
    在这里插入图片描述
  • 案例三:辅助编程任务
    在这里插入图片描述
    在这里插入图片描述
  • 案例四:辅助学习英语
Q: 请对以下这段英语的语法结构分析,并以表格形式给出,并给出重点标注:...
A: 如下表格:

以下是对该段英语的语法结构的分析,并以表格形式给出,每个表格为一个句子:

句子主语谓语宾语宾语补语介词短语
Who would have thought that, globally, the IT industry produces about the same volume of greenhouse gases as the world’s airlines do – roughly 2 percent of all CO2 emissions?IT industryproducesabout the same volume of greenhouse gases as the world’s airlines do – roughly 2 percent of all CO2 emissions-who, globally
Many everyday tasks take a surprising toll on the environment.Many everyday taskstakea surprising toll on the environment--
A Google search can leak between 0.2 and 7.0 grams of CO2, depending on how many attempts are needed to get the “right” answer.A Google searchcan leakbetween 0.2 and 7.0 grams of CO2depending on how many attempts are needed to get the “right” answer-
To deliver results to its users quickly, then, Google has to maintain vast data centres around the world, packed with powerful computers.Googlehas to maintainvast data centres around the world, packed with powerful computersto deliver results to its users quickly-
While producing large quantities of CO2, these computers emit a great deal of heat, so the centres need to be well air-conditioned, which uses even more energy.these computersemita great deal of heat-while producing large quantities of CO2; so the centres need to be well air-conditioned, which uses even more energy
However, Google and other big tech providers monitor their efficiency closely and make improvements.Google and other big tech providersmonitortheir efficiency closely and make improvements-however
Monitoring is the first step on the road to reduction, but there is much more to be done, and not just by big companies.Monitoringisthe first step on the road to reduction-but there is much more to be done, and not just by big companies

重点标注:

  • 第一句话中,疑问词“who”引导的从句为插入语,用逗号与主句隔开。
  • 第三句话中,“depending on how many attempts are needed to get the ‘right’ answer”为非限定性定语从句,用逗号与主句隔开。
  • 第四句话中,“to deliver results to its users quickly”为不定式短语,作目的状语。
  • 第五句话中,“while producing large quantities of CO2”和“which uses even more energy”为两个非限定性定语从句,用分号隔开。
  • 第六句话中,“however”为转折连词,表示与前面的内容相反。
  • 第七句话中,“but there is much more to be done, and not just by big companies”为并列句,用逗号隔开。

七、其他LLM

在这里插入图片描述

Reference

[1] ChatPaper:一款论文总结工具,根据用户输入的关键词,自动在arxiv上下载最新的论文,再利用ChatGPT3.5的API接口的总结能力:ChatPaper - Use ChatGPT to summary the Arxiv papers.’ kaixindelele GitHub: github.com/kaixindelele/ChatPaper
[2] ClassGPT:上传教材/讲义/参考资料基于 OpenAI ChatGPT API 交互式生成报告用 PPT:github.com/benthecoder/ClassGPT
[3] 哈工大: ChatGPT调研报告
[4] A Comprehensive Survey of AI-Generated Content (AIGC):
A History of Generative AI from GAN to ChatGPT
[5] 人工智能觉醒序章:Prompt工程
[6] GPT-4 Technical Report. OpenAI
[7] 为什么现在的大语言模型(LLM)都是Decoder-only的架构. 苏神
[8] 复旦邱锡鹏:深度剖析 ChatGPT 类大语言模型的关键技术
[9] Awesome Pretrained Chinese NLP Models
[10] 张俊林:由ChatGPT反思大语言模型(LLM)的技术精要
[11] 学术论文使用GPT:https://github.com/kaixindelele/chatpaper
[12] https://huggingface.co/Helsinki-NLP/opus-mt-en-ro
[13] https://github.com/adapter-hub/adapter-transformers/tree/master/examples/pytorch
[14] 机器翻译:https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/translation.ipynb
[15] HuggingFace学习3:加载预训练模型完成机器翻译(中译英)任务
[16] https://chat.plexpt.com/
[17] 清华大学开源中文版ChatGPT模型-ChatGLM-6B发布
[18] 李沐动手学dl:自然语言推断:微调BERT
[19] 微软推出HuggingGPT:所有HuggingFace的模型都可以被ChatGPT随意调用
[20] ChatGLM:小白也可搭建属于自己的chatgpt(全程教学)paddle
[21] 类ChatGPT开源项目的部署与微调:从LLaMA到ChatGLM-6B
[22] https://huggingface.co/THUDM/chatglm-6b/tree/main
[23] 如何解决类ChatGPT生成的时效性问题:基于duckduckgo_search+GLM-6B路线的一个简单实验分析
[24] chatglm官方博客 https://chatglm.cn/blog
[25] 清华 ChatGLM-6B 中文对话模型部署简易教程
[26] 清华ChatGLM-6B单机部署教程
[27] https://github.com/deedy5/duckduckgo_search
[28] GPT 4.0 你知道的和你不知道的.中科院 彭伟
[29] modelscope社区
[30] https://poe.com/
[31] https://web.skype.com/
[32] 如何用ChatGPT画流程图
[33] openai-cookbook:https://github.com/openai/openai-cookbook/tree/main/examples
[34] https://github.com/Significant-Gravitas/Auto-GPT

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/3280.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT 有什么新奇的使用方式?

你别说,你还真别说,我对象一般用它谈恋爱!!! 我对象在谈一种很新的恋爱,不建议模仿,因为根本停不下来! 事情是这样的,我最近开始对ChatGPT感兴趣,但我这个技…

【跟着ChatGPT学深度学习】ChatGPT带我入门NLP

❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️ 👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博…

【ChatGPT散文篇】ChatGPT-清华大学的讲座要点

刚听了清华大学关于ChatGPT的讲座,总结几个要点: 1、AI有可能成为地球上最初的硅基生命。 2、AI已迭代至博士研究生的智力水平。 3、以后将不存在学科和专业的概念,也不存在文科理科的区分,将是学科大融合。因为一个文科生哪怕不懂代码&a…

【跟着ChatGPT学深度学习】ChatGPT教我文本分类

❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️ 👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博…

ChatGPT 被居心不良的人拿去搞黄色了...

此前,推出的各类AI绘画工具。 想要制作出还能看得过去的作品,需要一定的美术功底和美感,上手门槛一点也不低。 大部分绅士顶多做个饱饱眼福的观众,完全没有参与感。 啪得一下很快啊,最近一个新的AI又火了,终…

3个技术男搞恋爱版ChatGPT,估值10亿美元

过去几个月,我们见证了GPT从3.5到4.0,从只能做结构化搜索整合到接近人类思维的对话,我们还看到了 GPT逐步掌握画画、写作、剪辑、制表、做 PPT 等技能。最可怕的是AI的迭代速度,简直是一天一个样。 这股这股前所未有的技术浪潮&a…

【ChatGPT恋爱攻略】给女朋友编睡前小故事

曾经有一只小鸟,它在森林里翱翔,在阳光明媚的早晨,发现了一条美丽的蜘蛛丝。这个小鸟陶醉于那条丝线的美丽与精巧,深感自己的运气有多好能够发现它。 小鸟开始孜孜不倦地尝试把细线拽下来,但总是它突然断裂&#xff0…

表白ChatGPT被秒拒!网友奇招打破电子人的「沉睡魔咒」

点击上方“视学算法”,选择加"星标"或“置顶” 重磅干货,第一时间送达 视学算法报道 编辑:昕朋 【导读】想和ChatGPT谈恋爱吗?Reddit网友手把手教你。 ChatGPT已经火了一段时间,世界各地的人才也把它的功能…

如何使用ChatGPT API训练自定义知识库AI聊天机器人

原文:如何使用ChatGPT API训练自定义知识库AI聊天机器人 - 闪电博 在我们之前的文章中,我们演示了如何用ChatGPT API建立一个AI聊天机器人,并指定一个角色来进行个性化处理。但如果你想在自己的数据上训练人工智能呢?例如&#x…

当 chatGPT 被职场 PUA ,笑麻了!

大家最近是不是被 chatGPT 刷屏了?简单来说,chatGPT 是一个智能聊天引擎。 那 chatGPT 和小爱同学、 siri 有什么区别呢? 如果体验过的朋友,能感受到区别还是很大,chatGPT 的智能表现过于优秀,远远超过了这…

多设备智能语音交互—小爱协同唤醒

一、背景 2014年11月,亚马逊推出了一款全新概念的智能音箱:Echo,这款产品最大的亮点是将智能语音交互技术植入到传统音箱中,从而赋予了音箱人工智能的属性。这个被称为“Alexa”的语音助手可以像你的朋友一样与你交流,…

小爱同学 语音唤醒 息屏唤醒 可控麦克风占用 个人制作

今年四月份入了红米note5,我买的第一台小米设备。颜值高,全面屏操作,着实是很出色。 使用过程中发现,小爱同学,只能通过点击图标的形式开启,没有语音唤醒功能,着实是一大缺憾。 趁着五一假期&am…

神秘鸭,让语音操作电脑不再神秘 小爱同学

最近小编白嫖了一个天猫精灵,就想着实现有没有智能家居之类的,看着看着就在网上看见了神秘鸭这个软件,可以实现语音助手控制电脑 但是目前天猫精灵的实现还在开发中,只能先用小爱同学用着,后续等待官方的开发 其中大概的逻辑就是电脑神秘鸭客户端连接服务器,用服务器远程控制…

使用小爱同学来控制电脑关机

使用小爱同学来控制电脑关机 前言实现原理创建账号PC端程序编写编译mqtt库代码分析运行界面 控制 前言 做这个项目的原因是因为本人太懒,经常写完代码就没想着关电脑,然后去玩手游去了。接着洗完澡躺下准备睡觉的时候发现电脑的电源灯还亮着&#xff0c…

Notion AI是什么?和chatgpt比哪个好?

最近对于人工智能的热度可谓是前所未有的高涨,毕竟现在的人工智能发展是越来越快,能做的事情也是越来越多,不再是那种低等的假智能小爱同学和siri那种。今天我们主要来聊聊Notion AI和chatgpt吧,Notion AI是什么?和cha…

Android 智能聊天机器人demo(类似小爱同学)

android 聊天机器人 相关信息全写在代码中,很详细 一 、界面展示 做了图标适配 感觉还可以。。。emmm nice 二 、代码 遇到的坑也都在代码中做了解释,下面是我查阅的一些资料 demo下载地址: https://download.csdn.net/download/qq_42…

如何实现一款接入chatGPT的智能音箱

现有的一些“智能音箱”如某度和某猫精灵,跟现在的chatGPT比显得智障。如果能有一款接入chatGPT的智能音箱,它的交互性就好多啦。有gpt加持的智能音箱绝对会很强,以下提供探讨下实现思路。 目前智能音箱在语音交互层面依然不够成熟&#xff0…

使用Midjourney与ChatGPT组合会怎么样?

Midjourney 和 ChatGPT 都是目前比较先进的自然语言处理技术,Midjourney是一种基于深度学习的文本生成模型,而ChatGPT是一种基于自注意力机制的大规模预训练语言模型。 使用MidjourneyChatGPT可以结合两种技术的优势,实现更加高效和准确的文…

一觉醒后ChatGPT 被淘汰了

OpenAI 的 Andrej Karpathy 都大力宣传,认为 AutoGPT 是 prompt 工程的下一个前沿。 近日,AI 界貌似出现了一种新的趋势:自主人工智能。 这不是空穴来风,最近一个名为 AutoGPT 的研究开始走进大众视野。特斯拉前 AI 总监、刚刚回归…

ONLYOFFICE中的chatGPT 是如何编写毕业论文以及翻译多种语言的

前言 chatGPT这款软件曾被多个国家的大学禁用,我们也多次在网上看到chatGPT帮助应届毕业生编写毕业答辩论文,但是这款软件目前还没有在国内正式上线,ONLYOFFICE7.3版本更新后呢,就添加了chatGPT该功能,并且正常使用。 …