人工智能以势不可挡的方式席卷全球。
所有公司,都在削尖脑袋想,如何在在产品、营销、运营、服务和管理上加持大人工智能的能力。
公司在卷生卷死的时候,有一批人已经偷偷在用大模型提(摸)效(鱼)了,如果你还停留在一句一句问问题的时候,就严重的凹凸了。
今天,特地开个文章,跟大家聊一聊,怎么样PUA AI 大模型,让 AI 又乖又漂亮的帮你出活儿。
为啥用 PUA 这个词?根据我的观察发现,大模型特别像人。本篇文章会从大模型的类型,大模型的使用缺陷以及 PUA 它的方法,三个方面聊一聊。
一、为什么说大模型像人
本号的一篇文章,详细介绍了大模型的底层原理 Transformer 。可以通过这篇文章快速回顾。
ChatGPT 会演化出自我意识吗?一文看懂LLM 大模型原理-Transformer
因为这样的学习机制,导致了大模型没有自己的意识,它不会有任何自己的想法。
只能从人类已经产生所有文字、图像等内容,学习文字规律,而且,按照你的提问,从原来的海量学习内容里判断,下一个字回答什么概率最高。
所以,用起来的时候,大模型会有很多像人的缺陷。
主要的缺陷有哪些呢?
-
幻觉(Hallucinations):
缺陷:LLM可能会生成与现实不符或完全捏造的信息。因为输出的是一个概率,所以,你问的任何一个问题都能被回答,但是都不一定保真。
我捏造了广州市佛山一路 33 号这个地址。kimi 一本正经的帮我输出了粤菜餐厅推荐。
-
不可解释性(Interpretability):
LLM的决策过程往往是黑盒,难以理解其为何生成特定输出。大模型的背后,是各种 embedding attention 机制,由 N 张巨大的神经网络学习。输出的结果,完全不可解释。
-
不一致性(Inconsistency):
LLM在不同时间或不同输入下可能产生不一致的输出。你问它的同一个问题,得到的答案肯定不会完全一样。
问第一遍,推荐 NO.1 的利苑酒家,推荐理由是 2024 年黑珍珠一钻。
再问一遍,加了个推荐菜品,片皮鸭、冰烧三层肉、麻香脆皮烧鸡。
-
适应性(Adaptability):
缺陷:LLM可能在特定领域或任务上表现不佳,特别是那些需要特定知识或专业术语的任务。
-
质量控制(Quality Control):
缺陷:自动生成的内容可能包含语法错误、逻辑错误或不恰当的表述。
你说它错了,它会迅速滑跪认错。
如果,你再安慰它没错,它又把原来的答案再翻给你看。是不是像极了唯领导马首是瞻的可怜弱小又无助的职场打工人。
二、大模型有哪些?
按照应用范围和专业程度,大模型可以分为通用大模型、行业大模型和企业大模型。下面将按照这三种类型,结合人的特性分别说明。
通用大模型
通用大模型就像一个记忆力超群的高中生,具备广泛的知识,能够参加各种学科的考试,但可能缺乏特定领域的深入理解和专业技能。
行业大模型
行业大模型就像经过大学/研究生训练的医学生,它们在通用知识的基础上,通过专业课程和实践,获得了对特定疾病的深入理解和治疗方法。
企业大模型
企业大模型就像在医院里经过专业职业训练的专科医生,它们不仅具备深厚的医学知识,还有针对特定病症的丰富经验和治疗方案,能够提供精准的医疗服务。
-
-
特点:通用大模型具备广泛的知识基础和处理多种任务的能力,它们通常在大规模数据上进行训练,能够理解和生成自然语言、执行基本的推理任务等。
-
典型模型有哪些:如OpenAI的GPT系列、国内的 Kimi 、文心一言、通义千问
等,都属于这个类型
-
特点:行业大模型是针对特定行业或领域定制的模型,它们在特定类型的数据上进行训练,以满足特定行业的需求,如医疗、法律、金融等。
-
典型模型有哪些:在医疗领域,IBM的Watson可以分析医疗记录和辅助诊断;在金融领域,有专门用于风险评估和市场分析的模型。
-
特点:企业大模型是为特定企业或组织定制的模型,它们结合了企业的业务流程、数据和需求,以优化企业的运营和决策。
-
典型模型有哪些:如Amazon的个性化推荐模型、Facebook的内容推荐和社交网络分析模型等。
-
至于大模型该怎么用好,规避天然存在的缺陷,留个坑,后面再开文章聊。