3月2日,在各大论坛网站霸榜了一个多月,ChatGPT相关话题的热度仍高居不下。这边热度未歇,那边研发ChatGPT的人工智能公司又在互联网上投下一颗重磅“炸弹”:OpenAI在其官方博客宣布,将开放ChatGPT和Whisper的模型API。
OPenAI做出了开源的决定,那么也就意味着其他需要通过人工智能自然语言处理应用的公司可借助该平台开发,不需要再做基础的指令研究及训练,这大大降低了其他公司的前期开发成本,是利好整个产业发展的决策。
而且OpenAI此次开放的是-3.5版本的API接口,大家如果体验过官网版本的 ChatGPT(基于 GPT-3.5)和民间自行搭建的聊天应用(基于 GPT-3)后,其实就能明显感受到,GPT-3 和 GPT-3.5 之间的差距是巨大的。
API即应用程序接口,可以通过调用被外部使用,我们引用一下百度百科对于其的定义:API(Application Programming Interface,应用程序编程接口)是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节。
OPenAI总裁兼董事长Greg Brockman表示,ChatGPT API由自然语言大模型“GPT-3.5-Turbo”支持。取名为“Turbo”,代表的是从GPT-3.5优化、反应时间更快的版本,意味着开发者或用户可以将它们集成到应用程序和其他产品中,并进一步帮助企业缩减了开发成本。
物美价更廉
相较于之前公开的GPT-3.0版本,此次公开GPT-3.5 版本可以说是:物美价更廉。从性能上看,GPT-3.5-turbo 拥有更强大的抽象能力和语法识别能力,能够准确地理解人类语言的含义和上下文,并将其转化为精准的文本输出;同时还拥有更高的计算能力和更快的响应速度,可以在短时间内生成大量的自然语言文本。从价格上讲,GPT-3.5-turbo 定价为每 1000 tokens (大概对应750 个单词)收取0.002 美元,比目前的模型便宜 90%。
成本更低,功能更强
GPT-3.5-turbo 版本接口依据其自身强大的算力基础或能打开应用市场,赋能更多应用场景落地。就目前GPT-3 版本接口主要落地的应用有,线上会议助手、搜索引擎的补充、办公助手、智慧生活场景等。GPT-3.5-turbo 模型能够凭借其更优的性能与更便宜的价格,吸引更多应用接入,从而加速实现ChatGPT 应用落地。
数据“反哺”模型,形成良性循环
OpenAI选择公开ChatGPT API接口,或是为了能获得更多的数据用于训练提升模型,从而使模型的研发进入一个良性循环。因为只有源源不断的数据更新,才能使模型不断优化和升级。ChatGPT的开放,吸引来更多的开发者或用户使用GPT-3.5-turbo 模型,那对于模型来说,就意味着可以获得更多的数据进行进一步的训练和优化。通过优化,模型的性能和价格再进一步得到提升和降低,从而继续吸引更多的开发者或用户使用,如此反复,模型的研发也就进入一种良性循环之中。
综上,我们可知ChatGPT模型的API开放,意味着企业、个人开发者都能使用目前最强大的模型之一GPT-3.5-turbo,用来开发各种应用或集成在产品中。会有大量的公司在此基础上开发自己所需要的应用程序,而由此带来巨大的算力需求,将利好产业链上的相关公司。
是机遇
当产业链公司能够掌握GPT-3.5-turbo模型的应用方法和技术规范后,就可以结合企业的自身产品,从而打造更多人工智能领域的增值服务,为客户提供更好的产品体验和使用效果。
更是挑战
ChatGPT模型的API开放在某种程度上将进一步加剧国内自然语言处理领域的竞争,部分规模较小的公司将由于无法承受高昂的模型使用费用,从而面临被淘汰的风险。除此之外,ChatGPT模型的开放也存在着一定程度上的风险和安全隐患。所以,对于GPT-3.5-turbo模型的开放,业内公司需要客观冷静地看待自然语言处理技术的发展,在应用前要做足调研和准备,切勿跟风盲目跟进。就如之前昙花一现的风口——元宇宙、NFT等,要慎重慎重再慎重。
OPenAI开放模型,为类人工智能应用的发展提供了加速器。随着越来越多的应用程序搭载人工智能技术,将引发对算力的巨大需求,这也为公司提供了巨大的发展空间。