ChatGPT使用了一种聊天界面来和用户互动,用户的理解成本降低,通过输入文字,来得到各种反馈。有预见性的创造者们,已经挖掘ChatGPT所展示出来的各种能力应该如何更好地融入我们的日常生活中。比如,生成菜谱、音乐播放列表、写电子邮件、求职简历等等。
而一些没有认知的用户,仅仅只是觉得ChatGPT是一个好玩的“聊天机器人”,出很多无趣的问题来“考验”它。
看问题的角度不一样,使用方式自然不一样。有些人已经用ChatGPT在赚钱了。而有些人,在创造新的生产力工具,或者叫全新的、AI驱动的系统。
全新的、AI驱动的系统,是增强我们某一项技能的强有力“武器”,就像外骨骼机器人一样。
举一个非常有启发的应用方式来说明此问题—— 通过大语言模型来合成用户。
什么叫”合成用户“?简单点理解,就是创造一个虚拟的用户出来,我们在调研产品需求的时候,往往会通过访谈的方式,形成用户画像和体验旅程地图。而合成用户,就是一种采用人工智能(LLM大语言模型)来模拟真实用户的一种技术手段。
甚至已经有人开始创造智能产品。
Synthetic Users
Synthetic Users是一种新型的产品发现方式,可以快速、高效地验证产品假设。其核心技术通过使用大型语言模型,模拟人类行为来验证可行性。支持从产品本质深入挖掘,同时考虑可持续性、易用性和可发现等因素。目标是帮助用户获得更好的产品洞察,高效地进行产品开发。
这款产品是有理论基础的,基于LLM大语言模型产生洞察的可能性。
https://www.science.org/doi/10.1126/science.aal4230
研究表明,机器学习已经被验证可以揭露潜在的关联关系。揭示概念之间的关联方面具有预测价值,例如愉快与花朵或不愉快与昆虫。它还可以梳理出态度和信念——例如,女性名字与家庭或男性名字与职业之间的关联。这种偏见可能不会明确表达,但它们可以证明对行为有影响。
而LLM大语言模型足够大。可以基于从海量数据集中获得的知识来识别、总结、翻译、预测和生成文本和其他内容。LLM 在足够大的数据集上进行训练,几乎可以涵盖很长一段时间内在 Internet 上编写的所有内容。
LLM 通过学习数据集中单词之间基于共现的关系来获取知识。这使得 LLM 可以通过有效的推理和对世界的理解来产生输出见解/洞察。
来感受下GPT-3的知识量有多大?
GPT-3作为LLM的典型代表,拥有 1750 亿个参数,学习了 45TB 的文本数据。
45TB,一块IBM的硬盘即可存储。(价格$176.59并不贵)
但是里面的信息量到底多大呢?45 TB 的数据,分别相当于:
3千万张软盘
6万张 CD-ROM 光盘
38亿页 Word 文档
600万本 650 页的书籍
2万小时的电影
1千三百万张照片
有感觉了吧?人工智能学习到了海量的知识,这不是一般人可以超越的量级。
本文所涉及的数据来源于perplexity.ai,协作完成梳理。所提到的使用“合成用户”来开发新产品的职业,已经更新到小程序:遇见未来FutureDEMO,欢迎查收
最后,ChatGPT不仅仅只是聊天,背后是LLM带来的各种创新的可能性。更多可能,🉑️加入我们的交流群,联系小助手加入。
本文提到的Synthetic Users资料来源于“元宇宙知识库”,最新最前沿👇
老用户限时优惠
新用户可获得知识库过往积累的2,665条知识。