原以为去年年底ChatGPT已经火过一阵子了,慢慢热度会降下来。出乎意料的是,其热度有增无减。我也是从去年年底一直关注并使用,包括ChatGPT网页版、GPT3 API以及ChatGPT内测API,还包括其他国内外一些人工智能算法的体验。
为了方便使用,我抽空开发了一个简易的RdChat程序来封装这些AI接口。随着ChatGPT热度增加,今天上午果然服务器崩掉了。为了抢修服务器,我不得不进行关机、重启、更改配置等操作。在整个过程中,用户完全无法和RdChat进行交互。这显然是不科学的,只是自己太业余了。
解决这个服务器问题自然联想到分布式。我的初步想法如下图所示,使用一台服务器来做数据交换和基本业务逻辑,另外同时使用多个子服务器节点来完成AI接口任务。当然,这些AI接口可以不局限于ChatGPT。
1 部署特点
经过一整天赶工,我搭建了上述一整套系统,包括一个主服务器和多个子节点服务器。部署效果主要有以下几个特点。
- 各个子节点服务器是可以热插拔的,接入即可使用。
- 子节点服务器数量可以根据业务或用户规模随时进行删减。
- 部分节点功能异常影响RdChat主程序功能。
- 对于子节点功能,可以进行不停机更新。
- 缓解了单台主机性能压力。
2 部署效果
经过分布式部署的ChatGPT应用更加稳定,升级更加灵活。