最近,OpenAI 开发的大模型 GPT-4 出现了一些问题,被质疑是否变笨了。根据 Hacker News 上的一篇帖子,发帖人称 GPT-4 生成的代码错误更多了,给出的答案不再有深度了。这个帖子引发了许多人对 GPT-4 的怀疑和不信任。
然而,OpenAI 开发者推广大使 Logan Kilpatrick 出面回应质疑,表示自 3 月 14 日发布 GPT-4 以来,大模型的本体一直处于静态,不存在大量外部数据污染模型的情况。同时他也承认,由于大模型本身存在不稳定性,因此对于相通的提示词,大模型存在回答前后不一致的情况。
此外,Keras 作者 François Chollet 也发表了自己的看法,指出 GPT-4 的表现可能与之前一样好甚至更好,变化的是人们自己:“人们有足够的时间与它互动,对它能做什么和不能做什么有了更现实的期望——它已经失去了最初的光环”。
从以上的回应可以看出,OpenAI 对于 GPT-4 的问题并不是视而不见,而是积极地进行解释和澄清。同时,他们也承认了 GPT-4 存在的不稳定性和其他问题。这也提醒我们,在大模型的设计和应用中,需要考虑到其自身的局限性和稳定性,以及如何更好地与用户进行互动和沟通。
最后,我们需要认识到,技术的发展是一个不断变化和更新的过程。虽然 GPT-4 可能存在一些问题,但我们不能忽视它所取得的巨大成就和推动的技术进步。我们应该以开放的心态去接受和使用这些技术,同时也需要不断地对其进行评估和改进,以更好地服务于人类社会的发展和进步。