《预训练周刊》第67期: ChatGPT引起热议、量化技术、Meta图像掩码加速CLIP

No.67

智源社区

预训练组

a3ea4900803e025af2085821e600281e.png

研究

观点

资源

活动

周刊订阅

告诉大家一个好消息,《预训练周刊》已经开启“订阅功能”,以后我们会向您自动推送最新版的《预训练周刊》。订阅方法:

方式1:扫描下面二维码,进入《预训练周刊》主页,选择“关注TA”。

24616bc805db23731cff5b7040d7c7de.png

方式2:点击本文下方的“阅读原文”,进入《预训练周刊》Hub社区版,根据内附的详细订阅步骤,完成订阅。

18da28ad357624bcc74de0b7331bf662.jpeg

2c28199dc3337505f34c0849b0b4bc38.jpeg

59cf9b3129f0b7c1beef88c435046be7.jpeg

21b7eb17d93314b4ca79b9952b3a227b.jpeg

dc4a6bb3f0d9c9f08bb0c0b1b2308495.jpeg

关于周刊

本期周刊,我们选择了9篇预训练相关的论文:多模态话题包括掩码优化CLIP方法FLIP,分层信息融合;视觉话题包括不平衡数据学习,掩码对比预训练,双曲对比学习;自然语言话题包括自我进化,信息溯源校正;基础研究方面包括两篇介绍大模型量化的文章。此外,在资讯动态方面,我们选择了6篇预训练资讯:工具方面包括BERT加速工具包,智源的开源阿拉伯语和EVA视觉大模型,观点方面包括汇总了关于近期爆火的ChatGPT相关的一些最新内容,包括基础原理、是否可以作为搜索引擎、在NLP任务评价和商业化等,希望能帮助各位读者加深对ChatGPT认识。

周刊采用社区协作的模式产生,欢迎感兴趣的朋友们参与我们的工作,一起来推动预训练学习社群的分享、学习和交流活动。可以扫描文末的二维码加入预训练群。

(本期贡献者:翟珂 吴新刚)

d589e286f96f9a05910e53033249c52d.jpeg

724a8038aeb68503b0b833b7e9918b08.jpeg

79a0abaf213c7e1ac42d53e6cd958dde.jpeg

71c5452aa367fcb51bd296dc1cbe44fc.jpeg

9c53971126e63dfeb4e0c1f3a608269c.jpeg

论文推荐

【多模态研究】

标题:Meta | Scaling Language-Image Pre-training via Masking(通过掩码进行语言-图像预训练的缩放)

作者:Yanghao Li、Kaiming He等

简介:本文提出一种用于训练CLIP的简单而有效的方案FLIP,它在训练过程中对图像块进行大比例的随机掩码移除,可以将CLIP的训练过程加速2~3倍。其核心改进就是在训练过程对图像进行随机掩码。这样做的好处包括:一是由于图像编码器只处理未掩码的patches,降低了计算用时,这样同样的训练时间内可以学习更多的图像-文本对;二是图像编码器的显存使用也下降,这样在一定的硬件资源下就可以实现更大的batch size,而对比学习往往需要较大的batch size。当然对图像掩码也会造成部分信息丢失,但是这也可能是一种正则化方法。在于FLIP和OpenCLIP的对比结果上,训练同样的轮数时遮蔽50%的FLIP可以提升训练速度2倍,而且在ImageNet1K上零样本准确度可以提升0.9%

论文下载:https://arxiv.org/pdf/2212.00794.pdf

标题:希腊雅典国立技术大学、雅典娜研究中心 | Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis(采用分层融合的自适应多模态 BERT 进行情感分析)

作者:Odysseas S. Chlapanis , Georgios Paraskevopoulos , Alexandros Potamianos

简介:本文研究基于bert的多模态模型、避免了灾难性遗忘和模态失衡的陷阱。多模式学习的pipelines技术,受益于预训练语言模型的成功。然而,这是以增加模型参数为代价的。在这项工作中,作者提出了基于BERT的自适应多模态模型:AMB,它使用适配器模块和中间融合层的组合。适配器为当前的任务调整预训练的语言模型,而融合层执行特定于任务的、逐层融合视听信息与文本 BERT 表示。在适应过程中,预训练的语言模型参数保持冻结状态,从而可以进行快速、参数高效的训练。由于有效地利用了预训练和非主导模态的有用知识,实验表明:AMB模型不仅性能高效、优于经过微调的模型,并且对输入噪声具有鲁棒性。

论文下载:https://arxiv.org/pdf/2212.00678.pdf

【NLP研究】

标题:武汉大学、京东等联合 | Toward Efficient Language Model Pretraining and Downstream Adaptation via Self-Evolution: A Case Study on SuperGLUE(SuperGLUE 案例研究:以自我进化实现高效的语言模型预训练和下游适应)

作者:Qihuang Zhong,Liang Ding2,Yibing Zhan等

简介:本文介绍了京东探索研究院在 SuperGLUE 排行榜上提交的Vega大模型。作者不任意增加预训练语言模型 (PLM) 的大小,而是想为达成如下两个目标:(1) 在给定特定参数预算的情况下,从输入的预训练数据中充分提取知识;(2) 有效地将这些知识转移到下游任务。为了实现目标 1,作者建议 PLM 进行自我进化学习,以明智地预测应该屏蔽的信息标记,并使用修正后的平滑标签、来监督掩码语言建模 (MLM) 过程。对于目标 2,作者利用Prompt提示迁移技术:通过将知识从基础模型和相关下游任务,迁移到目标任务、以改进低资源任务。实验表明:通过作者优化的预训练和微调策略,作者具有60亿参数的Vega模型(V2版)在四大任务上取得了新的SOTA性能,在 SuperGLUE 排行榜上名列前茅、平均分 91.3。

论文下载:https://arxiv.org/pdf/2212.01853.pdf

标题:CMU、谷歌等 | RARR: Researching and Revising What Language Models Say, Using Language Models(RARR:使用语言模型研究和修改语言模型所说的内容)

作者:Luyu Gao,Kelvin Guu等

简介:本文介绍了在ChatGPT火爆当下,一种查验对错和出处的一种方法。语言模型有时会生成未经验证或具有误导性的内容。用户无法轻易确定输出是否可信,因为大多数语言没有任何内置机制来归因于外部证据。为了在启用归因的同时仍然保留最新一代模型的所有强大优势,本文提出了 RARR(使用研究和修订的改造归因),该系统自动为任何文本生成模型的输出找到出处,以及可以对输出再编辑,修改未经验证的内容,同时尽可能保留原始输出。当应用于一组不同的生成任务的多个最先进语言模型的输出时,本文发现 RARR 显着改善了归因,同时在其他方面比以前探索的编辑模型更大程度地保留了原始输入。此外,RARR 的实施只需要少量训练示例、一个大型语言模型和标准互联网搜索。

论文下载:https://arxiv.org/pdf/2210.08726.pdf

【CV研究】

标题:清华大学 | Learning Imbalanced Data with Vision Transformers(使用视觉Transformers 学习不平衡数据)

作者:Zhengzhuo Xu, Ruikang Liu, Shuo Yang,等

简介:本文研究基于掩码生成预训练与平衡的二元交叉熵的视觉Transformer、实现了新SOTA的长尾识别技术。现实世界的数据往往严重不平衡、并严重扭曲数据驱动的深度神经网络,使得长尾识别 (LTR) 成为一项具有挑战性的任务。现有的 LTR 方法很少使用长尾 (LT) 数据训练 Vision Transformers (ViT),而现成的 ViT 预训练权重总是导致比较不公平。在本文中,作者系统地研究了 ViT 在 LTR 中的性能,并提出 LiVT :仅使用 LT 数据从头开始训练 ViT。广泛的实验表明:当基于掩码生成预训练和平衡二元交叉熵的使用,LiVT 在没有任何额外数据的情况下成功地训练了 ViTs、并且显着优于可比的最先进的方法。

论文下载:https://arxiv.org/pdf/2212.02015.pdf

源码下载:https://github.com/XuZhengzhuo/LiVT

标题:阿里巴巴、北航、中科院 | Masked Contrastive Pre-Training for Efficient Video-Text Retrieval(用于高效视频文本检索的掩码对比预训练)

作者:Fangxun Shu,Biaolong Chen,Yue Liao等

简介:本文研究端到端高效的视频文本对齐的预训练框架(VidLP) 、以用于视频文本检索任务。作者的掩码对比学习视频语言预训练模型(MAC) ,旨在通过掩码采样机制减少 VidLP 模型中视频表示的空间和时间冗余,进而实现预训练效率的提高。作者提出的端到端预训练框架,高效地达成:减少 FLOP(减少 60%)、加速预训练(3 倍)并提高性能。作者的 MAC模型 在多个视频文本检索数据集上取得了SOTA结果,包括 MSR-VTT、DiDeMo 和 ActivityNet。

论文下载:https://arxiv.org/pdf/2212.00986.pdf

标题:马里兰大学、谷歌、Meta | Hyperbolic Contrastive Learning for Visual Representations beyond Objects(超越对象的视觉表示的双曲对比学习)

作者:Songwei Ge, Shlok Mishra, Simon Kornblith等

简介:本文研究以对象为中心的场景层次结构上的双曲对比目标。尽管自监督/无监督方法在视觉表示学习方面取得了快速进展,但这些方法通常使用相同的场景来处理对象和场景。在本文中,作者专注于学习保留其中结构的对象和场景的表示。由于观察到视觉上相似的对象在表示空间中很接近,作者认为场景和对象应该遵循基于它们的组合性的层次结构。为了利用这种结构,作者提出了一个对比学习框架,其中欧几里德损失用于学习对象表示,双曲线损失用于鼓励场景的表示靠近双曲线空间中其组成对象的表示。这种新颖的双曲线目标通过优化其规范的大小来鼓励表示之间的场景对象同义词。实现表明:在对 COCO 和 OpenImages 数据集进行预训练时,双曲线损失提高了跨多个数据集和任务的多个基线的下游性能。

论文下载:https://arxiv.org/pdf/2212.00653.pdf

【基础研究】

标题:高通AI | Quadapter: Adapter for GPT-2 Quantization(Quadapter:用于 GPT-2 量化的适配器)

作者:Minseop Park , Jaeseong You , Markus Nagel ,等

简介:本文研究语言模型的量化感知训练领域的新方法。Transformer 语言模型(如 GPT-2)很难量化,因为激活过程中存在大量与信道相关的异常值,这些异常会导致较大的量化误差。为了适应错误,必须使用量化感知训练(QAT),训练后量化(PTQ)是QAT的一种对应物,它在不修改模型参数的情况下执行量化,但其功能不足以应对异常值。QAT需要基于数据集和与原始模型相同的训练管道的微调过程。然而,预训练语言模型通常不授予对其数据集和训练管道的访问权限,迫使研究人员依赖模型进行微调。而在这种情况下,QAT将使模型过度拟合微调数据。为了在不过度拟合的情况下进行量化,作者引入了一个量化适配器:Quadapter,以一组轻量级的参数,通过按通道缩放、可以学习使激活量化友好;同时可以保持模型的参数不发生任何变化。实验证明:作为有效的PTQ技术、Quadapter缓解了“QAT的过拟合问题和激活中的信道间方差”这两个业界难题!

论文下载:https://arxiv.org/pdf/2211.16912.pdf

标题:华盛顿大学、Meta、Huggingface | LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale(LLM.int8():Transformer的八比特矩阵乘法的规模化)

作者:Tim Dettmers, Mike Lewis等

简介:本文介绍了一种大模型量化技术。在神经网络中,量化可以理解为用低精度的数据格式来表示原来用高精度的数据格式表示的模型,从而降低内存使用以及提高计算速度。本文不仅介绍了常用的量化策略,还分享了一种基于混合精度分解的量化方法,并通过对比实验验证了混合精度分解量化可以有效地保持模型性能,避免了在大模型上使用量化技术导致的性能下降。除了量化之外,本文也帮助我们从另一个角度来理解Transformer:通过对离群值的分析,解释了Transformer是如何通过这些离群值来去除无用特征,以及Transformer的每一层是如何进行协作的。

论文下载:https://arxiv.org/pdf/2208.07339.pdf

44dd8304404a5fe9fc26b347fa016f72.jpeg

a0c2dd82ec6e5d8d70882c3869a8f643.jpeg

ca5826e12e85bcaadfcba767623b7689.jpeg

a5b08f57da7c4f2fb1a079f9431e3874.jpeg

a74e9e372d188348725c79ac8af51486.jpeg

工具资源

标题:香港科技大学、英国南安普顿大学 | ExtremeBERT: A Toolkit for Accelerating Pretraining of Customized BERT(ExtremeBERT:加速定制 BERT 预训练的工具包)

作者:Rui Pan, Shizhe Diao, Jianlin Chen等

简介:本文介绍了用于加速和定制 BERT 预训练的工具包ExtremeBERT。作者的目标是为研究社区和行业提供易于使用的 BERT 预训练工具包。为在资源有限的情况下,可以负担得起在定制数据集上对流行语言模型进行预训练。实验表明:基于GLUE分数比较的维度、对照原始的BERT论文,作者工具包的时间成本:(1)比BERT Base减少6倍、(2) 比BERT Large 减少了 9倍。

论文下载:https://arxiv.org/pdf/2211.17201.pdf

代码下载:https://github.com/extreme-bert/extreme-bert

标题:智源 | 阿拉伯语通用大模型ALM,最大阿拉伯语数据集ArabicText

简介:近日,北京智源人工智能研究院(以下简称“智源”)联合多家阿拉伯科研机构,开源兼具自然语言理解和生成能力的通用阿拉伯语预训练模型ALM 1.0,并发布开源世界目前数据量最大的阿拉伯语预训练文本数据集ArabicText,共同推动阿拉伯语大模型AI生态的建设。在模型训练上,阿拉伯语大模型ALM 1.0基于自然语言理解、条件和无条件生成的广泛任务上都表现优异的智源悟道GLM架构进行训练,兼具自然语言生成和理解能力。ALM 1.0将广泛支持阿拉伯语场景下的内容摘要、文本续写和生成、常识问答等一系列下游应用。同时基于对阿拉伯语文本数据的采集、整理和清洗,并基于支撑WuDaoCorpora的自研网页文本深度清洗工具,研究团队针对阿语进行了高度适配和优化,并最终获得了超过200GB的高质量预训练语料ArabicText。

工具地址:https://github.com/FlagAI-Open/FlagAI/blob/master/examples/ALM/README_zh.md

标题:智源 | 视觉基础模型EVA

简介:近日智源曹越团队最新开源的视觉预训练模型 EVA,EVA 的训练方法与 MVP、MILLAN 类似,即通过重构 CLIP 特征来进行掩码图像建模。如CLIP 模型输入为完整的图像,而 EVA 模型的输入为有遮蔽的图像,训练过程是让 EVA 模型遮蔽部分的输出去重构 CLIP 模型对应位置的输出,从而以简单高效的方式让 EVA 模型同时拥有了最强语义学习 CLIP 的能力和最强几何结构学习 MIM 的能力。不同于之前的方法,EVA 证明了这种训练方式可以帮助模型将参数扩展到十亿量级,并且在这个参数量级下在广泛下游任务中取得出色的性能。开源工具包括十亿参数的预训练模型,下游 ImageNet 图像分类、Kinetics 视频动作识别、COCO 和 LVIS 目标检测和分割、ADE20K 语义分割、以及最强 CLIP 模型。

工具地址:https://github.com/baaivision/EVA

6a8dd94ae5a8fc38a53244ccc7d04ba5.jpeg

8d7562cbee55bbd63d077358d243bd6c.jpeg

d555044cae68d785c7b536c82bae8cb5.jpeg

2d907f305b3b10d3e1784f1d7c5b140b.jpeg

ed29e502b15b66b48b4ebb831dcf96ba.jpeg

前沿观点

标题:ChatGPT的训练过程解析,它会成为下一代搜索引擎吗?

作者:张俊林

简介:本文介绍了ChatGPT的训练过程和它和真正搜索引擎的差距。整体技术路线上,ChatGPT在效果强大的GPT3.5大规模语言模型基础上,引入“人工标注数据+强化学习”(RLHF ,人工反馈其实就是人工标注数据)来不断微调预训练语言模型,主要目的是让大语言模型学会理解人类的命令指令的含义(比如给我写一段小作文生成类问题、知识回答类问题、头脑风暴类问题等不同类型的命令),以及让LLM学会判断对于给定的prompt输入指令,什么样的答案是优质的。本文认为目前还不能取代搜索引擎:首先,对于不少知识类型的问题,chatGPT会给出看上去很有道理,但是事实上是错误答案的内容;其次,ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识是非常不友好的;其三,ChatGPT或GPT4的训练成本以及在线推理成本太高。

标题:作为普通NLP科研人员对ChatGPT的一些思考

作者:郭必扬

简介:本文从NLP角度,包括任务,技巧,反思等角度讨论ChatGPT。作者在一些NLP任务上进行了测试,关键信息抽取任务上表现的相当好。简单推理任务还是完全可以胜任的,但给一些涉及简单数学推理的,可能就在一本正经的瞎推理了。写作辅助任务相当完美,需要一定知识储备的开放域问答有板有眼但实际并不靠谱,主观问题一定回答的很圆滑,可能存在的一定的模板。写代码任务上也只是搬运训练语料内容,或者给你把互联网上已有的信息“糅合”一下吐出来。作者表示在AI领域,阶层鸿沟问题日趋严重,普通研究者和顶级研究机构的思路已经开始差距越来越大。在这大背景下普通研究者的出路可能是研究一些更加底层的,大小模型都适用的问题,或者研究一些很特殊的,需要特定领域知识的任务,或者以数据为中心。

标题:ChatGPT的商业落地问题

作者:齐健

简介:本文介绍了ChatGPT的商业前景以及面临的挑战。ChatGPT商业化最为核心的问题,在于模型的准确性和部署成本。首先,ChatGPT的回答并不能保证准确性,这对需要准确回答具体问题的商业应用来说是致命伤。另一个问题是经济性,ChatGPT目前尚处在免费的测试阶段,眼前最接近实际的应用场景是搜索引擎优化、营销媒体内容创作辅助和开发者编程。对于这个问题容联云AI科学院院长刘杰表示,To B行业对人工智能要求更严肃、严谨,目前的人机对话内容主要集中在客服、外呼、营销等领域,需要有针对的模型库,利用轻量预训练模型和满足基础的框架的规模小一些的模型进行快速训练。刘杰认为:包括ChatGPT在内的NLP,在商业化上还处在一个螺旋上升的阶段,未来应用场景很广;但当下技术和商业模式还需要尽快找到一个“共振”的频率。不过,也有很多人认为ChatGPT未来的应用领域未必局限在人机对话,可能会扩展到更多应用领域,例如程序问题的识别和搜索引擎等。

6a27a1c3107a884ce9465f3631051849.jpeg

如果你正在从事或关注预训练学习研究、实现与应用,欢迎加入“智源社区-预训练-交流群”。在这里,你可以:

  • 学习前沿知识、求解疑难困惑

  • 分享经验心得、展示风貌才华

  • 参与专属活动、结识研究伙伴

请扫描下方二维码加入预训练群(备注:“姓名+单位+预训练”才会验证进群哦)

e625e06f60b4a77a11eb387fa8199945.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/2162.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Web3.0的由来:10分钟看未来,必须掌握的吹牛知识

全文3046字,阅读约需要10分钟 2022年10月18日,周星驰在社交平台发布一条招聘信息。一共两张照片,一张是周星驰在白板前写着“请人”二字,另一张是招人启事,人才要求:熟悉Web3、有项目管理经验、有头脑又宅心…

四天工作制究竟香不香;复旦发布类ChatGPT模型Moss;苹果上新348元省电保护膜 | EA周报...

EA周报 2023年2月24日 每个星期1分钟,元宝带你喝一杯IT人的浓缩咖啡,了解天下事、掌握IT核心技术。 周报看点 1、周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类 2、余承东:华为没有必要下场造车,问界不会涉及 2…

java springboot 整合webSocket接入调用chatGPT3.5接口实现自由返回

java springboot 中使用webSocket接入openAI接口调用chatGPT3.5接口实现自由返回 在springboot中添加webSocketServer Component Anonymous ServerEndpoint(“/websocket/{id}”) // 访问路径: ws://localhost:8080/websocket public class WebSocketServer { protected sta…

探索ChatGPT背后的网络基础设施

ChatGPT是OpenAI公司开发的一款聊天机器人应用,自2022年11月推出以来以迅雷不及掩耳盗铃之势火爆全球。ChatGPT不仅可以模仿人类对话,还可以创建音乐、电视剧、童话故事和学生论文,甚至是编写和调试计算机程序。 截至2023年1月,C…

chatgpt帮我写的一个小程序气泡框代码

效果图 这是一个气泡框 .bubble { position: relative; padding: 10px; border-radius: 8px; background-color: #ddd; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.3); } .triangle { position: absolute; width: 0; height: 0; top: -10px; left: 50%; margin-left: -10px; bor…

2023 ChatGPT智能AI机器人微信小程序源码

最近ChatGPT智能AI聊天突然爆火了 ChatGPT 是 OpenAI 开发的一款专门从事对话的人工智能聊天机器人原型。 聊天机器人是一种大型语言模型,采用监督学习和强化学习技术。 ChatGPT 于 2022 年 11 月推出,尽管其回答事实的准确性受到批评,但因…

三分钟完成小程序 uni-app、网站接入chatgpt实现聊天效果

利用laf云开发实现uni-app调用chatGPT API,实现与openai对话 1.实现后台接口 注册laf云开发账号 https://laf.dev/ 注册一个应用后进入这个页面: 下载依赖 chatgpt配置apiKey写send函数 //send函数源码 import cloud from lafjs/cloud export async…

离大谱,直接让chatG开发微信小程序

大家好,最近chatgpt不是比较火嘛,小浅浅我也打算来凑凑热闹,通过一番魔法操作后,终于是搞定了账号环境这些东西,上手体验了一下之后发现确实不错,可以直接提需求给他,然后帮你出思路和写代码。我…

借助ChatGPT编写html小程序

在数值模拟过程中,经常需要反复计算一些参数,例如常见的无量纲参数雷诺数和瑞利数等 它们的表达式如下: R a g β Δ T H 3 P r ν 2 Ra \frac{g \beta \Delta T H^3Pr}{\nu^2} Raν2gβΔTH3Pr​ 为了确定这个参数,需要给定 g…

ChatGPT都说厉害的东西,零基础,3个小时完成微信小程序的制作并发布

ChatGPT都说厉害的东西,零基础,3个小时完成微信小程序的制作并发布 目录 ChatGPT都说厉害的东西,零基础,3个小时完成微信小程序的制作并发布一、事情的起因(先解释一些因素,可以选择跳过)二、产…

微信小程序| AIGC之动手实现ChatGPT法律顾问小程序

一、需求背景 在资本退去后,现如今的互联网行情很差劲,很多创新业务都不得不砍除。再加上国内互联网时代进入到了一个增量犹显疲态,增量杀红了眼!阶段,各大互联网公司均有一种断臂求生的态势!各位互联网同行,大力发展第二职业已然变成了必要的生产力! 我们既要辩证的…

微信小程序 |做一款跟ChatGPT下五指棋的小程序

一、写在前面 敢问世间万物,何以解忧? 时下最为火爆的ChatGPT想必够资格来回答一下这个问题。 要想当年AlphaGO打败世界围棋高手李世石,就展露出AI的惊人实力,时隔多年,AI领域在憋了这么多年之后,现如今,ChatGPT 4大杀四方,各行各业无不为之震撼! 借用刚召开的新程…

ChatGPT的朋友们:大语言模型经典论文一次读到吐

知乎:Ostrich 职位:阿里巴巴 算法工程师 原文:https://zhuanlan.zhihu.com/p/620360553 要说2023刷屏最多的词条,ChatGPT可以说是无出其右。到最近的GPT-4,技术的革新俨然已呈现破圈之势,从学术圈到工业界再…

0起步用GPT+知乎赚了点小钱,人人可复制

大家好,我是五竹。 前段时间分享了一篇关于用ChatGPT赚点小钱的实战:TMD,被人偷窥了一个月!结果上周末的时候在知乎追了一个关于Claude的热点,发布了一篇注册Claude的文章,结果小小的“爆了”一下&#xf…

这是一篇由ChatGPT生成的博客

这是一篇由ChatGPT生成的博客 前言功能“写”小说编程C语言实现雪花算法Vue和element-ui写一个登陆界面MySQLSpringboot 结尾 前言 ChatGPT是一款由OpenAI开发的预训练聊天机器人模型。它是基于GPT-3(Generative Pretrained Transformer-3)架构构建的&a…

GPT4和ChatGPT的区别,太让人震撼

文 | Serendipity知乎 前言 GPT4上午朋友圈已经刷屏啦,不过我还在忙,刚刚才登上 GPT-4 ,现在来体验一下~ 附 GPT-4 能力测试站(无需魔法,仅供国内研究测试): https://gpt4test.com 附 Cha…

研究生如何利用 ChatGPT 帮助开展日常科研工作?

链接:https://www.zhihu.com/question/583232012 编辑:深度学习与计算机视觉 声明:仅做学术分享,侵删 作者:武幺六https://www.zhihu.com/question/583232012/answer/3022264244 我这篇保姆级的ChatGPT论文精读和组会汇…

知乎、百度会被ChatGPT取代吗?百度文心一言胜算如何

有人说ChatGPT革了知乎的命,这种看法是很直观能理解的,因为知乎上面有问题(题主),也有很多人回答问题,解决题主的疑惑,其实这种形式和ChatGPT的“一问一答”“知识分享”或“对话交流”很相像。…

她用ChatGPT写了一篇文章,日赚14000元!

金磊 Pine 发自 凹非寺量子位 | 公众号 QbitAI 用ChatGPT写篇博客,竟能实现日入过万! 没开玩笑,这事真真儿地就发生了。 事情的起因,是一位小姐姐正准备发布一篇数据分析文章,字数大约在3000左右。 但她觉得一边要分析…

​ChatGPT爆火后:API与平台战争

无界社区是一个跨学科的创新组织,由设计师和工程师组成的开放式线上协作组织。我们正在寻找对跨学科内容感兴趣、敢于尝试新方法并乐于分享想法的人士。如果你准备好加入一个开放、协作、有思想并能够凸显你独特性格的大家庭,那么请来无界社区吧&#xf…