chatGP最近火的一塌糊涂,它通过语言生成技术和自然语言处理能力,帮助用户快速解决问题并生成内容。目前,这款工具现在已经拥有超过一亿的活跃用户,并且因其高效率和易用性而受到了广大用户的好评。
不过谷歌可就倒霉了,昨天市值蒸发掉了 1000 亿美元,起因是谷歌和 ChatPGT 竞争的人工智能 Bard,在宣传视频里出现了事实性错误。
路透社记者从谷歌的宣传视频里,发现 Bard 说詹姆斯韦伯望远镜第一次给太阳系外行星拍照,实际上首张照片来自欧洲南天文台的甚大望远镜阵列
如果明白ai学习原理就实属正常,ai本身只是搜集互联网上数据,但并不具备判断真伪能力。你给他的数据都是对的他就聪明,错误数据多就蠢。
市场的预期是bard比ChatGPT略强或差不多,实际展现情况是差不多或者略差。表明上看只差一点点,实际则意味着ChatGPT的先发优势暂时还动摇不了,谷歌搜索基本盘有风险,遂大跌8%,瞬间市值蒸发1200亿美元。
这就引出了这类工具的一个通病:通常情况下,新闻都会经过专业人员的核实,但是对于 ChatGPT、Bard 等人工智能输出的结果,谁来负责核实它们的真实性呢?
更没有底线的百度呢,谁来防止它用人工智能推莆田系害人?
传统的搜索引擎会针对用户的查询,列出所有搜索结果,用户需要自行评估这些结果的真实性;而对于 ChatGPT 这样的人工智能,它们会给出综合性的答案,那么用户该如何确定这些答案的真实性呢?
如果是专门的机构来核实 ChatGPT 输出的答案的真实性,那么应该由哪些机构具有这样的资质呢?
这不同于审核黄色和血腥图片的任务,对于静态的资料,它们还是可以核实其真实性的。
但是,当涉及到与意识形态有关的信息时,情况就变得复杂了。比如说,不同的政党可能对同一概念和事实有不同的解读,在这种情况下,我们该如何评判其真实性呢?
不说那些大是大非、高精尖的问题,谷歌市值跌 1000 亿这个新闻,就有无数国内自媒体胡说八道,说谷歌在演示 Bard 时现场出错、导致市值狂跌。其实出错的是演示之前发的一片推文。
谁能保证人工智能会把这些挫逼剔除在外?
答案是不能
you are what you eat。
评判人工智能学习对象的信息源的真实性和可靠性是一个棘手的问题。由于它们是从大量的信息资源中学习,因此,其真实性和可靠性受到了信息源的质量影响。因此,有必要从多个方面评估人工智能学习对象的信息源,以确保它们的真实性和可靠性。
如果人工智能用来训练的基本资料都是论七八糟的,那么结论也是不可信的。
可能最后就像区块链中的51%攻击一样,当一个虚假信息在网络中的占比超过51%时,AI就会默认该信息为真实信息。这会利好掌握舆论和媒体的政府、主流文化以及潮流。
工具就是工具,是用来解放生产力的,不要完全依赖
一个价值中立的人,是众生平等的,看万物皆是工具,都是为他人生目标服务的。
对于我这种程序员,或者文章编辑工作者来说,chatGPT这种只是帮助我们生成一个初步的代码框架,或者润色整理文字。让我们能够节省大量的时间放在真正的创作之上,整个创作过程依旧是在「我」的主导下完成的,只是用了人工智能帮我快速启动项目以及润色细节,最终决定作品内容的还是「我」,因此使用 AI 只是一种工具,而不是完全掌控创作过程的力量。这也就是工具理性,也是我认为的人工智能的使用方式。
同样,盲目渲染人工智能替代人类也是毫无必要的,就像19世纪纺织工人都曾因为纺织机器等技术的普及和使用而面临失业危机而发起抗议一样,生产力的解放会带来新的岗位和发展,接受并想办法积极参与到这股浪潮之中才是解决问题的办法。
更何况纺织业的自动化和机械化至少持续了200年的时间,即使是68岁延迟退休的你,也很难见到AI抢走你工作的时候。当然如果又双叒延迟退休了也不好说~