LLM相关的6篇重要的论文,其中4篇来自谷歌,2篇来自openai。技术路径演进大致是:SSL (Self-Supervised Learning) -> SFT (Supervised FineTune) == IT (Instruction Tuning) -> RLHF。
word embedding的问题:新词如何处理,新词的embedding如何表征;但LLM根据token或字做输出的方式,很大程度上可以解决这个问题。
在谷歌有很大的机器资源去调用,使得BERT有机会做成大模型;BERT出来后,NLP之前所有的trick都失效了;BERT证明了大模型这条路是可行的。
Openai是把所有资源都集中到LLM这一件事情上,集中所有资源于一点,这就是战略选择。
Instruction tuning非常重要,带来了范式的转化。
RLHF将模型毒性从40%降低到0.6%。
GPT3.5 turbo,据业界推测,是个20-30B的蒸馏版本模型
GPT有可能会开源,如果是这样,LLM水平面上升,可能会淹没其它很多开源模型。
什么是智能体?智能体= LLM + 记忆 + 规划 + 工具 + 神经 + 直觉
Agent需要有硬件支持,是一个全新的物种。暴露度:编程是63.4%,所以编程在很大程度上也是可被替代的。
langchain的设计比较糟糕,复杂度太高了;违背了单接口原则。
更关注MMLU榜单:https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu
数据结构和API设计图,有较高价值;LLM具有很强的信息收集、处理能力。一个200w人民币架构师的工作,有可能花几美元就解决。
人类在这里主要扮演投资者。