GPT-4 终问世!旧王已死,新王当立!面对AI,人类真的准备好了吗?
摊主一大早醒来,就看见 GPT-4 发布的消息,不得不感慨今年 AI 更新的速度真是太快了。🚀
摊主昨天还在修改、润色自己一篇主题为「A Deeper Dive Into ChatGPT」 的博客,今天 OpenAI 就扔出了 GPT-4 这一副王炸,看来博客内容又要大幅删改了😂
话不多说,一起和摊主来简单看一下 GPT-4 吧!
一睹为快 🚀
相关链接 🔗
GPT-4 官网链接:https://openai.com/research/gpt-4
GPT-4 论文链接:https://cdn.openai.com/papers/gpt-4.pdf
GPT-4 宣传视频:Introducing GPT-4
GPT-4 开发者直播:GPT-4 Developer Livestream
简单介绍 🧐
先来看看官方的简介吧
We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.
ChatGPT翻译版:
我们已经开发了GPT-4,这是OpenAI在深度学习方面扩展的最新里程碑。GPT-4是一个大型多模态模型(能够接受图像和文本输入,输出文本),虽然在许多现实场景中不如人类,但在各种专业和学术基准测试中表现出人类水平的性能。
摊主的个人理解:GPT-4 是 多模态模型,支持「图像输入」,且性能表现暴打前代模型!!!
🍉 PS:OpenAI 这次甚至连 GPT-4 的 完整论文 也开放了 orz(GPT-4 论文链接)
部分测试 ☘️
GPT-4 的各项参数相比 GPT-3.5 也有不同程度的提升,下图是 GPT-4 在一些标准化考试的得分情况:
GPT-4 在为机器学习模型设计的一些 Benchmark 的评估测试:
🍉 PS:篇幅原因,其他测试数据详见官网和论文。
应用效果 🧑🏻💻
看完简单介绍,来看一下 GPT-4 的实际应用吧~
前排提示❗️❗️❗️
目前 GPT-4 的 图像输入功能还在内测,但是加强版的文字输入已经开放,仅面向 ChatGPT Plus 版的用户。但是 GPT-4 的官方 API 接口可以通过加入「等待列表」的方式来申请(传送门)
前端失业系列
在发布会中,演示者在自己的笔记本上,画了一个潦草的个人网站草图
然后拍照将图片发送给 GPT-4
GPT-4 根据此图片,生成了相关的网页代码 🥲
🍉 摊主锐评:虽然这个 Demo 已足够震撼,但相信未来的迭代、升级版本会彻底改变前端开发的现状。
搜题软件失业系列
在 GPT-4 的论文中,测试者向 GPT-4 提了一个问题,并要求GPT-4 逐步解答:
🍉 摊主锐评:GPT-4 笑看一众搜题软件,说到「会当凌绝顶,一览众山小」。
论文达人系列
在论文中,测试者通过输入论文图片,让 GPT-4 对相关内容进行概括,并对相关图表内容提出询问。
🍉 摊主锐评:前段时间用 API 接口实现的一些论文概括软件,马上就又要进行新一轮的迭代升级了。
图表内容解读
在论文中,测试者通输入图表,让 GPT-4 根据图标回答问题。
🍉 摊主锐评:李华大喜,GPT-4 不仅能帮忙写应用文了,还能帮忙解决图表写作题了。🎉
表情包解读员系列
在论文中,测试者通输入表情包,让 GPT-4 帮忙 Get 笑点:
专业领域的笑话解读:
🍉 摊主锐评:机器比人类更能 Get 笑点系列。也许在未来的人机对话中,机器人会抛出一些人类无法一下子 Get 到的点,对人类进行反讽/阴阳怪气等(参考 New Bing),来表达自己的不满。(估计英国人引以为傲的英式嘲讽也要被「GPT式嘲讽」取代了)
总结 ✍️
从 OpenAI 这次放出的视频和论文来看,GPT-4 相比于 GPT-3.5 的提升还是非常明显的。
摊主也非常期待 GPT-4 的图片输入功能开放后,它的能力究竟能被挖掘到什么地步。
也许就像 NVIDIA 创始人黄仁勋在 UCBerkeley 的演讲中所说,AI 的「iPhone Moment」已经到来。
让我们一起试目以待。🧑🏻💻