最近看到一些新闻,再次提到Chatgpt变笨的问题。
其实,这个问题早在6月初就已经引发过讨论。一个国外从业者在OpenAI论坛里分享论证GPT变笨的文章,他用GPT-4的API做了测试,让它做简单计算题。从结果准确度来看,GPT-4在3月14日能做到满分,而到了6月13日的时候只是勉强拿了50分。
可事实真的是这样的吗?
早在2022年底,Chatgpt3.5风靡的时候,笔者就发现国内有很多割韭菜的开发者,快速开发了对话式AI工具,趁着AI热潮,高举镰刀,疯狂欢快地收割小白和爱好者。为了节省成本,那些开发者和商家们完全不考虑对话的上下文内容,导致了很多人都以为原来chatgpt原来一点都不聪明,还挺笨的。
这一行为也导致了很多国人对AI的认知出现了偏差。
chatgpt4.0出来之后,3.5的价格逐渐回落,一些开发者开始考虑产品的用户体验,于是,稍微精致的产品开始逐渐显现出来,包括出现了语音和Chatgpt的融合、图片和chatgpt的融合,这些产品抛弃了纯粹为了割韭菜而不管用户体验的问题,基本上都能携带几轮对话内容上去。
但由于Chatgpt本身是无状态的语言模型,接收和生成的token数量有限,当携带过多token的上下文上去的时候,它就直接罢工,无法工作。这也导致了我们看到的绝大多数产品,当你问的问题比较多的时候,就会出现chatgpt失忆的情况。
比如,你一开始问它:
who are you?
它回答:
I'm AI,and you?
你接着回答:
Harry
经过十几轮对话(大部分产品通常支撑不了那么多轮),因为chatgpt的token限制和大部分产品的设计问题,chatgpt会变得和你非常陌生。你再次问他 who am I? 的时候?它会一脸懵逼。
随着chatgpt用户的不断重度使用,一方面心理预期在媒体的过度宣传中被拔高了,另一方面,AI模型本身的token限制和无状态的本质,也导致它的表现和用户预期不匹配,让我们觉得它变笨了。
为了解决长时记忆的问题,Bmob AI服务融合了自身的云数据库服务、chatgpt、langchain、知识图谱等技术,做了一系列的开发,解决了这些问题。
其实,chatgpt的问题还远不止这些。训练数据没办法实时更新、企业内部资料没有在训练数据里面等问题,也会导致chatgpt在面向企业客户的时候,出现胡言乱语的情况。
这些Bmob AI服务也接入了企业内部数据 和 行业知识图谱,实现实时的数据对接,确保了领域内容的正确性。
现在是AI深耕时代,单纯做一个简单的对话工具来吸引人,收割韭菜越来越难了。业内人士都在说,现在这类产品的ROI转化越来越差,我们要想真正做好AI这个行业,一方面要秉持互联网的快速扩展的优势,另一方面,也要潜心钻研,不要因为别人说Chatgpt变笨了,我们就人云亦云,无所作为。
欢迎有AI钻研精神的朋友加微(xiaowon12)沟通AI大计。