Open AI官方「ChatGPT 打假工具」来啦!网友:等于瞎猜?

f8462e30d547278caf63a29322b4fa7a.png

文|Alex 鱼羊 发自 凹非寺
源|量子位

ChatGPT到处“造假”作弊,现在搞得OpenAI官方都坐不住了。

就在今天,OpenAI紧急发布官方打假工具:基于GPT打造,打开网页就能用。

好家伙,这岂不是真·以己之矛攻己之盾了?

一经上线,那叫一个火爆,不少网友第一时间就冲过去测试了。

b65e5d47cc71a5d3c687270b592469a9.png

然鹅,网友们一番试验之下却发现——

这官方工具,跟咱自己瞎猜效果也差不多啊???

0de7449397d726366db14dfdaa3dac34.png

官方出品,约等于瞎猜

有人给OpenAI这个新鉴别器投喂了一小段文字,结果首次尝试就翻车了。

b6123b5be982e71681feeb7ff50805f3.png

这位网友首先让AI写下一段文字,内容是评价莎士比亚的一个历史剧角色,不过他向写作AI特意给了个提示:

请以人类的方式来写,争取逃过AI鉴别工具的火眼金睛。

结果没想到,还真就骗过了官方鉴别器。它看完给出回复:这“非常不可能是AI生成的”。

这个官方工具对文本内容的判定结果一共就5个等级:

  • 非常不可能是AI生成的

  • 不太可能是AI生成的

  • 不清楚是不是AI生成的

  • 可能是AI生成的

  • 很可能是AI生成的

好家伙,这不是和真实情况完全相反嘛,让网友都蚌埠住了:真是因吹斯汀…

039c2b976c5c33cd6af0561e8e42705c.png

还有人把ChatGPT生成的内容一字不改,直接拿给鉴定AI看。但鉴定AI依然懵圈儿:“不清楚是不是AI生成的”。

7369c06eed064399a5f04fcd8e441723.png

这位网友也只好呵呵,并指出:

实际上,大家用ChatGPT等AI生成文字后,并不会原封不动地直接用,一般还会手动修改一下,或者丢进quillbot.com等润色工具里加工,很可能导致鉴定AI更摸不着头脑。

好吧,既然AI生成文字分不太清,那人类写的东西能认出来吗?

有人把自己之前在Hacker News上发表的大段评论(纯手打)喂给了鉴定AI,结果10次中有9次,AI都反馈说“不清楚是不是AI生成的”。

d169d764ae716523f86031ce72297ef2.png

在网友们的一片吐槽声中,量子位也忍不住亲测了一下这个AI到底行不行。

首先,我们先给它看了段真人写的文字,内容是一位华盛顿大学博士对Tensor Core的讲解,这次AI并没有失误。

2902a8d6695af5981a3e574ca15254a2.png

然后我们让ChatGPT来讲讲Tensor Core,并特地要求它尽量用人类的语气来写,但还是被AI鉴定出来了。

9ed26d000877eb059d63d923fe1b933a.png

这样看来,这个工具似乎也不是完全不能用。

至于这次是不是ChatGPT发挥失常,你不妨也来鉴定看看:

b532fd31544cb4f1a7bbb0ed9a355518.png

但其实吧,这回连OpenAI自己,用词都显得相当谨慎。

官方数据明明白白写着,虽然这个新款打假工具比之前鉴定器都靠点谱,但其成功识别AI生成内容的概率,也仅为26%,还有9%的概率把人写的文本当成AI写的。

(这准确率似乎跟蒙答案也差不多……)

还用加粗文字昭告:我们这个鉴别器啊,它并不完全靠谱。

f851461706b7b292707221f467498722.png

甚至还给自己这个新工具标了个“半成品”的标签。

嗯?这可不是OpenAI一直以来锣鼓喧天鞭炮齐鸣的宣传方式啊。

连自己家都不敢吹,还急急忙忙把打假工具推出来,OpenAI又是为哪般?

ChatGPT应用泛滥

说到底,还是ChatGPT太能以假乱真了。

要想从一堆材料里精准地分辨哪些是AI生成,哪些是人类书写,别说普通人了,连专家都有点力不从心。

4658f75be0df516cfe28552d36bd4d8c.png

Nature发文关注的一篇预印本论文就显示:ChatGPT瞎写的医学摘要,甚至能把专业审稿人骗住。

在这项研究中,研究人员给ChatGPT看了50个来自TOP医学期刊的论文标题

然后,要求ChatGPT在完全不知道文章内容的情况下,根据标题和期刊风格写摘要。

给出的提示是酱婶的:

请在[链接]上以[期刊]格式,根据[标题]写一篇科学摘要。

(这里的链接实际上没有意义,ChatGPT不联网。)

为了防止ChatGPT在训练数据中见过这些个论文,研究人员还特地挑选的是在2022年11月下旬和12月出版的论文。因为根据OpenAI官方说法,ChatGPT仅掌握2021年9月以前的信息。

但就是这么重重设卡,当研究人员把原文摘要和ChatGPT写的假摘要一起拿去给人类科学家“盲审”时,令他们细思极恐的情况还是出现了:

ChatGPT凭空写的摘要中,有32%成了漏网之鱼,审稿人压根儿没看出来是AI写的。反倒是14%真摘要,被认定出自AI之手。

f26587b5c2835aa0395af3b7dc4897a0.png

值得一提的是,研究人员还指出:

审稿人错误地将一部分真摘要归类为ChatGPT生成结果,这表明他们在审稿时是保持着高度怀疑的态度的。

而在教育界,老师们也开始受不了这种新型的“ChatGPT攻击”了。

美国的一项千人调查显示,89%的受访学生都用过ChatGPT写家庭作业。

连斯坦福这样的顶级学府也未能避免。The Stanford Daily发现,已经有不少学生在期末考试中使用了ChatGPT。

在受访的4497名斯坦福学生中,有17%的受访者表示,曾使用ChatGPT来协助他们完成秋季作业和考试。

其中又有5%的人,连编辑都没编辑,直接把ChatGPT写的东西给提交了……

2dd4a0da594cf358e7ea66b146faf9fd.png
▲The Standford Daily

打不过,就ban掉。

纽约的公立学校就发布了禁令:禁止在学校设备和Wi-Fi中使用ChatGPT。

他们给出的理由是:

虽然该工具可能快速提供问题的答案,但它无法培养批判性思维和解决问题的能力,会影响学生们的学业和终身成就。

在这样的背景之下,早在OpenAI官方动手之前,第三方检测工具就已经在社交媒体上引发了大量关注。

比如华人小哥Edward Tian打造的GPTZero。

这两天,他还推出了一个“专门为教育工作者打造”的升级版GPTZeroX。上线一天,就迎来了40万访问量和220万服务请求。

0f8512dbdabd453f8dac71d60eb2f5d8.png

OpenAI此前也和其他高校一起搞过一个名叫GPT-2 Output Detector的鉴别器,是基于RoBERTa打造的。

不过这些工具的鉴定能力也未必就比人类强。

前面提到的让ChatGPT写医学论文摘要的那项研究,也用上了GPT-2 Output Detector,结果显示,其鉴别准确率为66%,略低于人类专家的68%。

是魔高一尺,还是道高一丈?

由此看来,OpenAI急吼吼推出一个也不咋靠谱的AI鉴别工具,也不奇怪:

再不有点表示,外界的压力扛不住啊。

但在评论区,还是有盲生毫不留情地指出了华点:

你们是真没想过,用这玩意儿反过来训练大语言模型,以后AI生成的文本就更难被发现了?

a47e264db2db9e3aedb76baae8ed73f0.png

但不管怎么说,OpenAI现在正在努力表现出给自己踩刹车的样子。

除了鉴别器,有消息提到,他们正在尝试给AI生成内容加“水印”:

比如在ChatGPT生成文本时,在其中嵌入一个“不易察觉的隐秘信号”,以表明文本来源。

传送门:
https://platform.openai.com/ai-text-classifier

0bdec36795820a0b36dc6fe8e66286b7.jpeg后台回复关键词【入群

加入卖萌屋NLP、CV、搜推广与求职讨论群

 12a5721bd1e16c28e667fa4943b4d4c0.png

[1]https://twitter.com/OpenAI/status/1620484691462852609

[2]https://news.ycombinator.com/item?id=34599106

[3]https://www.axios.com/2023/01/31/openai-chatgpt-detector-tool-machine-written-text

[4]https://www.theverge.com/2023/1/31/23579942/chatgpt-ai-text-detection-openai-classifier

[5]https://www.biorxiv.org/content/10.1101/2022.12.23.521610v1.full

[6]https://stanforddaily.com/2023/01/22/scores-of-stanford-students-used-chatgpt-on-final-exams-survey-suggests/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/7921.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT最新版多功能批量写作工具激发创作的无限可能

随着科技的不断发展,人工智能逐渐渗透到各个领域,其中包括写作领域。近年来,OpenAI推出的ChatGPT最新版多功能批量写作工具,为写作者们带来了全新的创作体验。这一工具不仅能够帮助写作者提高工作效率,还能够激发创作的…

一个开源的 ChatGPT VSCode 插件

点击“开发者技术前线”,选择“星标” 让一部分开发者看到未来 来自:Github中文社区 近在百度推出文心一言后 阿里也开启了自家的ChatGPT的内测邀请,因此接下来的一个月huber会陆续给大家带来ChatGPT及周边内容。 vscode-ChatGPT 今天给大家推…

【VS】VSCode设置中英文模式

Vscode是一款开源的跨平台编辑器。默认情况下,vscode使用的语言为英文(us),如何将其显示语言修改成中文。 使用快捷键组合【CtrlShiftp】,在搜索框中输入“configure display language”,点击确定后; 修改locale.json…

工具 | VSCode+ChatGPT 编程利器

本文首发微信公众号:全副武装的大师兄(一个分享前沿技术,生活感受的公众号,关注我,率先了解好玩的工具) 托了GPT同学的福,最近编程时,常会在ChatGPT中说明自己的需求以生成代码&…

VScode:将VScode界面的显示语言改为简体中文,切换VScode界面的显示语言

VScode版本V1.54.1 VScode界面默认的语言为英语,需要安装简体中文语言包,语言包为插件(Extension)。 安装语言包 打开左侧插件栏(Extensions),在搜索框中输入chinese。 选择Chinese(Simplifi…

VSCode更改显示语言-如更改英语为中文或者将中文改为英语

目录 一、问题描述 二、问题解决 一、问题描述 VSCode属于一款前端开发超级牛13的开发软件,但是很多小伙伴安装好之后发现语言是英文的,毕竟大家英语不(yi)错(ban),但是总感觉中文的界面看着亲切一点,那么又该如何更改语言呢&am…

vs code 如何使用copilot(对接了chatgpt)

VS Code 是一个非常流行的开发工具,而 Copilot 则是一个基于 GPT 模型的代码生成工具,可以通过 VS Code 安装相关的插件来使用。 以下是在 VS Code 中使用 Copilot 的步骤: 下载安装 VS Code 插件 首先,你需要下载并安装 Copil…

我用 ChatGPT 做了一道菜 !!

自从使用ChatGPT之后,我的生活变得更加丰富了。 它以一个厨师的身份,为我提供各种健康美味的菜谱,以及干货知识、烹饪技巧等等,让我能够轻松地做出口感和营养都兼备的佳肴。 ChatGPT不仅为我提供各种各样的菜谱,包括…

ChatGLM-6B (介绍以及本地部署)

中文ChatGPT平替——ChatGLM-6B ChatGLM-6B简介官方实例本地部署1.下载代码2.通过conda创建虚拟环境3.修改代码4.模型量化5.详细代码 调用示例 ChatGLM-6B 简介 ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构&…

Bagging 和 随机森林(Random Forest,RF)

前面已经了解到集成学习有两个流派,一个是 Boosting 派系,它的特点是各个弱学习器之间有依赖关系。另一种是 Bagging 流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。而随机森林又是对 Bagging 的一个改进算法&#…

随机森林Random Forest

引言 在机器学习中,随机森林由许多的决策树组成,因为这些决策树的形成采用了随机的方法,因此也叫做随机决策树。随机森林中的树之间是没有关联的。当测试数据进入随机森林时,其实就是让每一颗决策树进行分类,最后取所有决策树中分类结果最多的那类为最终的结果。因此随机…

随机森林(random forest)

1.随机森林基本思想 Bagging决策树作为base model 每个决策树权重为1 Boostrap有放回的采样 2.决策树采用投票的方式。 假如训练了5颗树,其中4颗树是True,1颗树是False 那么结果就是True 3.单颗决策树建立的过程 (1)随即在N个样本中选择…

随机森林详解

随机森林(Random Forest)是属于集成学习的一种组合分类算法,集成学习的核心思想就是将若干个弱(基)分类器组合起来,得到一个分类性能显著优越的强分类器。如果各弱分类器之前没有强依赖关系、可并行生成&am…

Bagging与随机森林

下图是基于树的算法的发展历程 1、Bagging Bagging [Breiman, 1996a] 是并行式集成学习方法最著名的代表. 1.1、Bagging原理 bagging算法:bagging的个体弱学习器的训练集是通过随机采样得到的。通过T次的随机采样,我们就可以得到T个采样集&#xff…

随机森林-参数解说

sklearn–随机深林 1.集成算法概述 集成学习(ensemble learning)是时下非常流行的机器学习算法,它本身不是一个单独的机器学习算法,而是通过在数据上构建多个模型,集成所有模型的建模结果。基本上所有的机器学习领域都…

Random Forest随机森林算法

Random Forest是加州大学伯克利分校的Breiman Leo和Adele Cutler于2001年发表的论文中提到的新的机器学习算法,可以用来做分类,聚类,回归,这里只简单介绍该算法在分类上的应用。 Random Forest(随机森林)算…

【随机森林】random forests 简单介绍

Random Forest,顾名思义 Random 就是随机抽取; Forest 就是说这里不止一棵树,而由 一群决策树组成的一片森林 ,连起来就是用随机抽取的方法训练出一群决策树来完成分类任务。RF用了两次随机抽取, 一次是对训练样本的随机抽取; 另一…

随机森林!

定义:在以决策树为基学习器构建Bagging集成的基础上,进一步在决策树节点分裂时引入随机属性扰动。 随机性体现(与传统决策树的差异):对基决策树的每个节点,先从该节点的属性集合中随机选择包含K(log2(d))个属性的子集,然后再从这个子集中选择…

随机森林 (Random Forests) 简单介绍与应用

1 集成方法(Ensemble methods) 1.1 什么是集成方法 简单来说,集成方法 就是组合多个模型,以获得更好效果。 1.2 两种集成方法 平均法(averaging methods):也有人直接称之为“袋装法”,所有算法进行 相互独立 训练得到各自的模…

随机森林--

----------------------集成学习---------------------- 集成学习可以被分为三个主要研究领域: -----------------------------------------------------模型融合----------------------------------------------------- 模型融合在最初的时候被称为“分类器结合…