点击蓝字
关注我们
AI TIME欢迎每一位AI爱好者的加入!
12月28日,“科技未来看青年”AI TIME 2022 年度嘉年华完美收官。本次年度嘉年华开启“青年学者说”、“科技新势力”、“Debate AIGC”三大板块,邀请AI领域的青年科学家、PhD等青年学者分享前沿研究、科研成果、科研趣事等,传递科技新态度,新风尚,呈现科技未来新力量。
在Debate AIGC板块,很荣幸邀请到了穆罕默德·本·扎耶德人工智能大学研究员秦雪彬,上海人工智能实验室青年科学家戴勃,北京智源人工智能研究院研究员付杰,启明创投投资人胡奇,智谱AI大模型事业部VP薛宇飞和清华大学博士生于济凡一起思辨AIGC。
1
不同群体有共享的人类总体价值观和稍有差异的价值观。目前AIGC,要如何从社会层面把模型的价值观和人类总体和各个群体的价值观做一个对齐?我们需要对AIGC做内容审核吗?是人来审核,还是机器自己审核?
付杰:之前遇到过一些有趣的问题,比如是希望婚礼让别人参加,还是希望葬礼让别人参加?对于整个数据集来说,有很多人去玩这个游戏,选A或是选B。假如我们训练的BERT是选择希望婚礼能有更多人参加,那么就可以和人类的整体价值匹配了。但是我们只有一个BERT,中国的BERT是否会和中国人的反应更为相似呢?而如果我们用GPT去做生成,生成的内容是否也需要和不同的国家、不同的区域做一个匹配呢?毕竟模型反映出来的其实就是爬取数据所在国家人群的价值观,去生成图片也会有所在国家或地域的一些特色在里面。
于济凡:关于这个问题,是否应该是现在的AIGC都由一个统一的模型来完成呢?
付杰:我觉得它不应该由一个统一的模型来完成。比如调用ChatGPT时是美国网民占主要部分,那么一定是以他们的语料为主。
于济凡:以我们日常的生产和科研环境,如果想做一个特定的AIGC的agent,都是需要在自己收集到的数据集上做调整。每一个训练出来的AIGC都是一个独立的个体,我们其实并不需要把它从社会的层面考虑成一个整体的价值观,而是把它们看作由我们创造出来的新人类就好了。我们是否可以通过大模型的修正和微调来解决foundation model自带的bias问题?
秦雪彬:模型上反映的其实是数据分布,数据上对不齐首先就是问题,我们不能拿着北美的数据去做欧洲的东西。目前来看,这些大模型对于数据分布的分析基本是没有的,或者是很粗糙的。事实上这些东西也是因为模型的过拟合和差值产生的,真正外推性的东西确实是可以和AI道德这些联系起来。但是我认为其本质还是一个数据的问题,因为如果把控不好数据就难免会出现bias绑定在数据上。
于济凡:我觉得这个观点非常本质,什么样的数据就会得出什么样的模型。前段时间,ChatGPT给大家的震撼其实也是来自数据收集的本身。老师们觉得,对于本问题的后半部分,无论我们接下来是作AIGC的研究还是工程,是不是还需要人工审核的环节?而不是把太多的自主权交给AIGC模型。
薛宇飞:我觉得内容本身是没有什么好审核的,只有当内容被传播,被分发或是在互联网上产生影响的时候,这时候内容才有了被审核的需求。在内容传播平台上,其实从来都不需要被界定这条内容是AIGC,PGC还是UGC。而是要根据平台的特点或是传播的特点来判断。从这种角度看,AIGC和现有的UGC、PGC一样是需要被审核的,也是机器审核和人类审核来共同决定的。而随着AI技术的发展,即使是机器审核模型的能力,也会比过去更好。
于济凡:AIGC带来的技术革新同样可以作为人们更好的工具去帮助审核,所以审核本身并不是一个需要单独讨论的问题。
2
如果AIGC的内容充斥了整个互联网和人类知识库,人类的文化传承会出现问题吗?
戴勃:我觉得是不会出现问题的。如果哪一天AIGC的内容真的充斥了整个互联网和人类知识库,我觉得更像是我们人类做出了选择,因为其质量超出或达到了我们的想象并可以用来解决某些问题。人们不会被动的让AIGC的内容真的充斥了整个互联网和人类知识库,一定是有选择的使AIGC这种技术能够更好的为人们服务,如让一些古老的传承重新焕发光彩。反而会对人类文化传承产生帮助。
于济凡:现在的AIGC都是由一些很强的模型来驱动生成,所以其背后代表的是当前主流的数据强权,如拥有数据主导权的人将能够主导AIGC生成。如果是自然选择的话是没问题的,但如果背后带有这种数据霸权的情况是否会最终出现赢家通吃的现象而导致最终收敛到某个特定文化圈子之中呢?
戴勃:AI只是一个工具,所谓的数据霸权只是说数据带有某种bias,最终是否会成为数据霸权还要看人们如何使用。即便是出现了,我认为也不是AIGC带有的bias,而是人们有意引导而为之的。
付杰:现在B站上好多电影解说的第一句就是“注意看,这个男人叫小帅”。这就是当下很多公司依懒于对自动生成的语言来作进一步修改的结果。如果这种情况最终充斥了整个互联网,对于人们的使用体验也会造成很大的冲击。
戴勃:如果这样真的成为潮流,人们也会主动选择将这种潮流压下去的,一定会有相应的解决办法。
薛宇飞:在历史中,知识和文化都是通过书籍传播的。谁能够有能力写出这些书籍,他们的认知就能够随着书籍的传播而发扬光大。但是随着互联网出现之后,这个门槛就被大大降低了,每个人都可以贡献自己的知识和内容。这样也会有人担心,会不会有人在网上贡献一些虚假的知识。其实,互联网通过其自由的网络社区管理机制很好的控制了这一切,虚假的知识也没有造成多么严重的后果。知识和文化不一定就要由权威来输出,普通人同样可以为知识的传播做出贡献。媒体同样是这样,互联网时代诞生的自媒体也是从一开始的混乱慢慢变得规范起来。我们如今看待AIGC也是如此,相信随着其慢慢发展也会产生机制使其变得更加规范化。
于济凡:不只是AIGC,互联网诞生以来的很多事物都存在类似问题,但实际上我们只需要对其进行略微的极限问题管制,它就能很好的发展。
3
AIGC会对人类教育造成怎样的影响?比如小学生到底要如何学习写作呢?
秦雪彬:为什么会对人类教育产生影响呢?是生成的东西不真实?这样可以给生成的东西打上标签,有标签就不会被纳入教育内容,如果是虚假信息就会被过滤掉。以上这些肯定都是需要规章制度去约束的,具体说对教育的影响,我觉得是不冲突。计算机相对于人来说,过去的优势在于其庞大的计算能力,而人的优势在于想象力和创作能力。如今的计算机也会拥有创作能力,但我始终认为所有的AIGC模型都只是对数据的拟合。其对大量数据的采集要比人类强,因此插值的空间和变换的形态就非常多。但是这些东西是否是有价值的呢?
胡奇:去年投了一家AI教育公司,他们做的就是通过AI的方式帮助小孩子解题。其比较擅长的是数学和几何,最终会通过一个虚拟形象将解题方法讲解出来。相比于一对一的家教,这种AI的方式大大节约了成本,同时还可以给每位孩子带来一个个性化的老师。AIGC在目前教育场景中,在答案确定的情况下,可以很好拓展内容的丰富度,达到寓教于乐的效果,是对教育有促进的。不过,对于主观性过强的题目,还是需要人工审核的介入。
秦雪彬:目前AI对于生产力的促进还并不是很大,细究到技术层面,还是归结于精度和鲁棒性的问题。
于济凡:对于现在的生成和大模型的评测,是不是已经不能用上一个时代的深度学习模型评测模式,如封闭数据集再加上一些测试集的划分来算准确率了?是否应该换上一些更加高级或是严苛的评测方式来促使大家把技术做的更好?
秦雪彬:我觉得这要看目的是什么,如果是科学研究或是模型性能的提升,是可以还用封闭数据集来做的。但是在实际应用中,精度是不能完全反映模型精度的,很考验数据采样的功底。如果想要在没有groundtruth的情况下去判断模型的好坏,这也是一个不错的研究方向。如今看似很炫的一些技术,但针对我们真正要解决的问题还有很大的gap,离我们的应用之路还有很远。
戴勃:个人觉得AIGC这种生成模型的评测思路可能不太一样,生成是有很多方面要去考虑的,包括模型的效率以及多样性等等。AIGC各种大模型层出不穷,我们也一直想用一种客观的方式去衡量并指出其中问题,但发现这确实是一个很难的事情。对于教育的问题,刚刚各位老师也提到要在内容正确的情况下减少人工的部分,部分主动性很高的东西就不太适合AIGC来写作。然而,AIGC对教育的好处基本就来自其主动的部分,毕竟其就像一位随时on-call的老师。孩子在与AIGC的交流之中,或许会比在课堂上能够收获更多。
付杰:之前在思考,能否让小学生带着ChatGPT去考试,这样就不用背课文了,就好比是和机器一起考试,但是这样如果能实现的话又该怎么评分?
戴勃:如果是考试,肯定是不可能带上ChatGPT的,毕竟这样就和开卷考试没啥区别了。AIGC的出现一定会改变我们工作和生活的方式,是否会出现离开AI就什么也不会做了的情况?就好比今天的互联网和电,我们今天离开这些确实是会无法正常生活的。
于济凡:这或许可以简化为“考试时能否带计算器的问题”。
薛宇飞:我觉得这件事或许对所有人都会有很大影响。比如,我们在有了计算机等工具之后,我们写字的机会就大大减少了,有些人甚至已经开始提笔忘字了。这是我们已经看到的影响,而如果到了AIGC的时代,我们是否会离开AI就不会写论文和画画了呢?
4
AIGC的应用前景和工业落地的障碍。
秦雪彬:之前做计算机视觉,我觉得它不是一个纯理论的研究,而是一个理论和应用的结合。和其他AI算法类似,我们能够得到一个相比之前很fancy的结果,但是距离我们的预期依然相差较多。我们可能只走了20%,后面还有80%的路。每年论文的投稿量如此之大,但是应用起来依然问题多多。这样长久以来,可能就会失去人们的信任。
胡奇:今天的AIGC,一些图像、视频等等都离更高级的大KA客户的实际使用很远。其还是需要去满足一些特定场景的需求,但这就比较考验两个东西,一是技术是否可以做到一些场景的可用,10年前的NLP技术肯定是与现在无法同日而语的;二是应该怎样设计这些场景,我们对软件产品的使用是要符合人的习惯和诉求的。为什么NLP当年也没有厉害的AIGC算法,但是google和百度却可以做大?是因为C端用户们没有这么强的期待,只要搜索的东西与我想要的有一点关联,能翻到自己喜欢的东西就可以了。而今天的AIGC能不能找到一些场景,这些场景不仅是技术上可以做到,还可以通过与人的协作配上一些知识图谱或是算法来满足商业化需求,我觉得这就算是一种很好的做法。目前AIGC落地的问题,可能更多的还是在于大家对它的预期太高了。在工业落地的时候,还是应该找到一个可以自己去做中间层,能把这层做强做厚的场景并提供一款真的去PMF的产品,而不是去找几个大KA把产品卖出去但实际并没有用起来,否则这样的次数多了也会让大家逐渐失去对AIGC的信心。我觉得期待还是要高的。高期待若是能通过产品的设计来满足用户,也是可以的。但是那种通篇的生成,技术上不支持,结果也不会是确定的。高期待的场景还是要满足的,但是要有自己的能力去实现。
戴勃:我觉得AIGC的应用前景还是很足的,不仅可能挑战现有的共识,更有可能创造出新的共识而改变人们的现有认知。从技术的角度,我觉得AIGC落地的可控性还是需要进一步加强。另一个就是版权了,除了使用的内容是否侵犯了他人的版权,还要关注生成的内容版权究竟要属于谁。这些问题如果不能妥善的解决,工业落地还会存在障碍。
薛宇飞:AIGC在工业上的应用还有很长的一段路要走。比如AIGC生成图片的技术,真要做成像photoshop那样的流行应用恐怕还有着不小的距离,还需要很多研究上的投入。但同时我也觉得,不需要过于为前路漫长而悲观,现在起码已经有人在用AIGC做一些有意思的事情。比如,我之前在微博关注的一个设计师就在用AIGC生成一些有趣的设计作品并将他们印在帆布包上售卖。在一些偏C端的领域,AIGC反而可能得到快速应用。对于AIGC的应用前景,也许并不会太遥远,我们会看到AIGC已经被应用在了我们的生活之中,可能是很小很细分的领域,但确实是令人眼前一亮的结果。
付杰:我目前在做两个相对比较小众的AIGC任务,一种是在蛋白质序列生成中,生成抗生素来杀死细菌。我觉得这其实也是AIGC,正如刚刚各位老师讲的,生成最难的是如何做evaluation。生成蛋白质并不难,生成一个好的却是很难的。一是我用来训练生成器的data是很少的,因为已知的抗生素序列的蛋白质是比较少的。最后我们需要去进行筛选,一个简单的筛选是训练一个分类器,很严重的问题是这个classifier是严重过拟合到这个数据集的。给它一个生成的,它根本不知道能否抗菌。这个场景下的evaluation是个大问题。另一个在做的AIGC是音乐生成,这里面临的是和生成图片不一样的挑战,毕竟生成图片不会生成一个超长序列。最有代表性的是OpenAI在2020年生成的音乐,它们生成的音乐也是比较短的,长序列的也是无法做到。所以我觉得AIGC落地目前的障碍,制药领域中的evaluation是个大问题,音乐领域的超长序列生成和表征也是一个问题。
于济凡:其实不止是音乐和制药,文本领域也会常常面临这些问题。就像长故事生成,也是超长序列无法解决的问题。本次Debate AIGC各位老师从技术、产业和产品设计等方面都提出了很多对于AIGC已有现状的分析,以及技术上需要发力的主要突破点,也对现在初创企业去做AI的主要方向给出了自己的建议。我相信AIGC的话题在今后也依然会是一个具有很大讨论空间的话题。
整理:林 则
审核:秦雪彬、戴勃、付杰、胡奇、薛宇飞、于济凡
往期精彩文章推荐
记得关注我们呀!每天都有新知识!
关于AI TIME
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
迄今为止,AI TIME已经邀请了900多位海内外讲者,举办了逾450场活动,超500万人次观看。
我知道你
在看
哦
~
点击 阅读原文 查看回放!