一觉醒来,万众期待的Multi-Chat,它来了!而且专注于高校科研工作者,并且具有四大开发功能
AI科研绘图
AI数据处理
AI学术写作
AI 维基百科
元素魔方老板王老师直接开门见山地介绍说:
这是我们迄今为止功能最强大的科研工具!
有多强?
根据元素魔方官方的介绍,Multi-Chat是一个超大的多聚合小程序,也就是说,它可以处理任何科研人遇到的场景:AI写作,AI邮件,AI科研绘图,AI科研数据处理,AI邮件,AI中文基金本子,AI审稿意见,AI组会汇报,AI学术汇报,因为它可以既时处理文字和图像。
AI写作:
AI写学术邮件:
它的输入可以是文字(上限2.5万字),还可以是图像。
(看图)手套掉下去会怎样?
它会掉到木板上,并且球会被弹飞。
甚至只需要简单在纸上画一个网站的草稿图:
拍一张照片上传给Multi-Chat,它就可以立马生成网站的HTML代码!
在性能表现上,元素魔方王老师直接甩出一句话:
在各种专业和学术基准上和人类相当!
而且不只是发布Multi-Chat这么简单,元素魔方这次“啪的一下”把相关“大动作”一步到位了:
Multi-Chat:集成GPT-4&ChatGPT聚合版
注册小程序即免费
客服手把手教会
甚至这一次,不少网友都发出了“见证历史”的感慨:
史上最强大模型
正如之前传言,Multi-Chat确实拥有多模态能力,可以接受图像输入并理解图像内容。
并且可接受的文字输入长度也增加到3.2万个token(约2.4万单词)。
升级之后,Multi-Chat在各种职业和学术考试上表现和人类水平相当。
比如模拟律师考试,GPT-4取得了前10%的好成绩,相比之下GPT-3.5是倒数10%。
做美国高考SAT试题,GPT-4也在阅读写作中拿下710分高分、数学700分(满分800)。
那么Multi-Chat这些新能力实际用起来是什么样的?技术报告中也给出不少展示。
首先,看图能力可以用来解释表情包、梗图。
提问这张图哪里好笑?Multi-Chat可以按顺序描述出每一格的内容,并总结出笑点:
用巨大的过时VGA接口给小巧的现代智能手机充电。
更进一步,Multi-Chat可以理解图表中数据的含义,并做进一步计算。
甚至可以直接把论文截图发给它,Multi-Chat可以按像素处理其中的文字和图片,并给出对整篇论文的总结摘要。
文字输入长度限制的增加,也大大扩展了Multi-Chat的实用性。
发布会直播上,元素魔方总裁王老师现场表演了一波Multi-Chat给代码修Bug。
出现问题啥也不用想,直接把1万字的程序文档一股脑扔给GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。
再最后附上出现的问题,在几秒钟内瞬间得到解决办法。
在API方面,Multi-Chat还开放了一个使用功能,允许修改“系统提示”。
之前ChatGPT的回答总是冗长而平淡,这是因为系统提示中规定了“你只是一个语言模型……你的知识截止于2021年9月”。
现在通过修改这句话,Multi-Chat就可以展现出更多样的性格,比如扮演苏格拉底。
也可以指定之后所有回答的形式,比如全用json格式。
虽然Multi-Chat这波能力大升级,但之前ChatGPT会出现幻觉、胡说八道的毛病还是没能完全改掉。
从前面的官方示例也可以看出,要想最大程度发挥Multi-Chat的能力,最好还是用上思维链路提示(Chain-of-thought Prompt)。
操作起来也非常简单,只需在提问的时候额外提醒AI给出步骤,就能大大提高推理和计算的准确率。
但无论如何,这一次,我们离真科研人·人工智能,更近了一步。
参考链接:
[1] https://openai.com/research/gpt-4
[2] https://blogs.bing.com/search/march_2023/Confirmed-the-new-Bing-runs-on-OpenAI%E2%80%99s-GPT-4
[3] https://www.youtube.com/watch?v=outcGtbnMuQ