什么是 prompts, completions, tokens and meta-learning /in-context-learning

从字面上看,任何文本都可以用作提示(prompts)——输入一些文本然后得到一些文本。 我们虽然知道 GPT-3 对随机字符串的处理很有趣,但是编写一个有效的提示才能更好的真正的让GPT理解我们要它做什么。

提示(prompts)

Prompt是怎么样让GPT-3知道你想要它做什么事情。 这就像编程,但使用简单的英语。 所以,你必须知道你想要做什么,然后使用文字和纯文本把它表达出来,不需要编写代码。

当你写Prompts时,要记住的主要事情是让 GPT-3 知道接下来应该出现的文本,包括指令(instructions)和例子(examples)等方式提供的上下文(context)帮助模型找出最佳可能的补全(completion) . 另外,编写的质量也很重要——例如,拼写、不清楚的文本和提供的示例数量都会影响补全(completion)的质量。

另一个关键的因素是Prompt的大小。 虽然Prompt可以是任何文本,但提示和生成的补全(Completion)加起来必须少于 2,048 个标记。 我们将在本章稍后部分讨论标记,但那大约是 1,500 字。

因此,提示可以是任何文本,并且没有像编写代码时那样必须遵循的硬性规定。 但是,有一些关于构建提示文本的准则可以帮助获得最佳结果。

提示(Prompts)类型


我们将深入探讨不同提示类型的写法,这些不同的提示类型有如下:

  • Zero-shot prompts (零次提示)
  • One-shot prompts (一次提示)
  • Few-shot prompts (多次提示)

Zero-shot prompts(零次提示)


Zero-shot prompts 是最简单的提示类型。 它仅提供任务描述或让 GPT-3开始的一些文本。 同样,它实际上可以是任何文本:一个问题、故事的开头、指令(instructions)——任何东西,但是你的提示文本越清晰,GPT-3 就越容易理解接下来应该出现什么。 以下是生成电子邮件消息的零次提示(zero-shot prompt)示例。 补全(Completion)将从提示结束的地方开始——在本例中,在 Subject:: 之后

Write an email to my friend Jay from me Steve thanking him for covering my shift this past Friday. Tell him to let me know if I can ever return the favor.
Subject:

以下屏幕截图是来自基于 Web 的测试工具的 Playground 。注意原来的提示文字是粗体,补缺Completion显示为常规文字:

图 1.1 – Zero-shot prompt 示例
图 1.1 – Zero-shot prompt 示例

可以看出,零次提示只是几句话或对任务的简短描述,没有任何示例。 有时这就是 GPT-3 完成任务所需的全部。 其他时候,您可能需要包含一个或多个示例。 提供单个示例的提示称为一次提示。

One-shot prompts(一次提示)

One-shot prompt提供了一个示例,GPT-3 可以使用它来学习如何最好地完成任务。 以下是提供任务描述(第一行)和单个示例(第二行)的一次提示的示例:

A list of actors in the movie Star Wars 
1. Mark Hamill: Luke Skywalker

仅仅从描述和一个例子中,GPT-3 就知道了任务是什么以及应该完成它。 在此示例中,任务是生成电影《星球大战》中的演员列表。 以下屏幕截图显示了从此提示生成的内容:

图 1.2 – One-shot prompt示例 

One-shot prompt非常适合列表和普遍理解的模式。 但有时您需要的例子不止一个。 在这种情况下,您将使用几次提示。

few-shot prompt (多次提示)


few-shot prompt 提供了多个示例——通常是 10 到 100 个。多个示例对于显示 GPT-3 应该继续的模式很有用。 Few-shot 提示和更多示例可能会提高完成质量,因为提示为 GPT-3 提供了更多可供学习的内容。

下面是生成模拟对话的多次提示的示例。 注意,这些示例提供了一个来回对话,其中包含对话中可能会说的话:

This is a conversation between Steve, the author of the book Exploring GPT-3 and someone who is reading the book.
Reader: Why did you decide to write the book?
Steve: Because I'm super fascinated by GPT-3 and emerging technology in general.
Reader: What will I learn from this book?
Steve: The book provides an introduction to GPT-3 from OpenAI. You'll learn what GPT-3 is and how to get started using it.
Reader: Do I need to be a coder to follow along?
Steve: No. Even if you've never written a line of code before, you'll be able to follow along just fine.
Reader: 

在下面的屏幕截图中,您可以看到 GPT-3 继续在提示中提供的示例中开始的模拟对话:

图 1.3 –  Few-shot prompt示例

现在您了解了不同的提示类型,让我们看一些其它的提示示例。

Prompts 示例
OpenAI API 可以处理各种任务。 可能性范围从生成原创故事到执行复杂的文本分析,以及介于两者之间的一切。 为了熟悉 GPT-3 可以执行的任务种类,OpenAI 提供了许多提示示例。 您可以在 Playground 和 OpenAI 文档中找到示例提示Prompts。

在 Playground 中,示例称为Presets。以下屏幕截图显示了一些可用的Presets:

图 1.4 – Presets

OpenAI 文档中还提供了提示Prompt的示例。 OpenAI 文档非常出色,包括许多很棒的提示Prompt示例,以及在 Playground 中打开和测试它们的链接。 以下屏幕截图显示了来自 OpenAI 文档的提示示例。 请注意提示示例下方的 Open this example in Playground 链接。 您可以使用该链接在 Playground 中打开提示:

https://platform.openai.com/docs/guides/completion/prompt-design

图 1.5 – OpenAI 文档提供提示示例

现在您已经了解了提示,让我们来谈谈 GPT-3 如何使用它们来生成补全。

补全(Completions)

同样,补全(completions)是指根据提示/输入生成并返回的文本。 GPT-3 并未经过正对任何一种类型的 NLP 训练的——它是一种通用语言处理系统。 但是, GPT-3可以使用提示(prompts)完成给定任务。 这称为元学习(Meta-learning)。

Meta-learning
对于大多数 NLP 系统,在训练底层 ML 模型时,提供的数据是用于指导模型如何完成特定NLP任务的。 所以,为了提高对给定NLP任务的效果,模型必须重新训练,得到新版本的模型。 但是GPT-3 不一样,因为它不需要针对任何特定任务进行重训练。它旨在识别提示(Prompts)文本中的模式(patterns)并通过使用底层通用模型来继续模式。 这种方法被称为元学习(Meta-learning),因为提示用于教导 GPT-3 如何生成最佳的补全(completion),而不需要重新训练。 因此,实际上,可以使用不同的提示类型(零提示、一次提示和多次提示)为不同类型的任务对 GPT-3 进行编程,并且您可以在提示中提供大量指令(instuctions)——多达 2,048 个标识符(token)。

标识符(Tokens)

当一个提示输入到 GPT-3 时,它被分解成标识符(Tokens)。 标识符是单词的数字表示(numeric representation),或者更常见的是单词的一部分。 数字用于标识符而不是单词或句子,因为它们可以更有效地处理。 这使 GPT-3 能够处理相对大量的文本。 也就是说,如您所知,提示和生成的补全一起仍然有 2,048 个标识符(大约 1,500 个单词)的限制。

您可以通过估计将在您的提示和补全中使用的标识符数量来保持在标识符数量的限制之内。 平均而言,对于英文单词,每四个字符代表一个标识符。 因此,只需将提示中的字符数与响应长度相加,然后将总和除以四即可。 这将使您大致了解所需的标识符数量。 如果您想要了解许多任务需要多少标识符,这将很有帮助。

获取标识符数量的另一种方法是使用 Playground 中标识符计数指示器。 它位于右下角大文本输入的正下方。 以下屏幕截图中的放大区域显示了标识符数。 如果将鼠标悬停在数字上,您还会看到完成后的总计数。 对于我们的示例,提示 Do or do not。 There is no try。——Yada大师的名言——使用 10 个标识符和 64个补全标识符:

图 1.6 – token count

虽然了解标识符对于保持在 2,048 个标识符限制以下很重要,但理解它们也很重要,因为标识符数量可以OpenAI的收费挂钩。 您的帐户可在 https://beta.openai.com/account/usage 获取总体标识符使用情况报告。 以下屏幕截图显示了示例使用情况报告。

图 1.7 – 使用统计

除了标识符使用之外,影响与使用 GPT-3 相关的成本的另一件事是您选择处理提示的引擎(engine)。 引擎指的是将要使用的语言模型。 引擎之间的主要区别是相关模型的大小。 较大的模型可以完成更复杂的任务,但较小的模型效率更高。 因此,根据任务的复杂性,您可以通过使用较小的模型来显着降低成本。 以下屏幕截图显示了发布时的模型定价。 如您所见,成本差异可能很大:

其它

Playground相关的参数说明

  • temperature: 这会影响您得到的响应的“随机性”。使用什么采样temperature,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。我们通常建议改变这个或 top_p 但不是两者都改变。
  • top_p : 一种替代temperature采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。 所以 0.1 意味着只考虑构成前 10% 概率质量的标记。我们通常建议更改此值或temperature,但不要同时更改两者。
  • Maximum length:AI 的响应可以有多长。
  • Show Probabilities:这将高亮显示各种单词,以向您展示 AI 如何根据可能性考虑和选择它们。
  • Frequency/Presence penalty:改变 AI 重复使用单词或一遍又一遍讨论相同主题的可能性

Mode 

  • Completion:这是默认模式,它让 AI 在您输入中断的地方补全您的对话。
  • insert:此模式使用 [insert] 标签来填充您选择的空白点。
  • edit:此模式不是提供全新的内容,而是根据您的规范修改现有内容(例如,“Rewrite this in a pirate voice”或“删除‘like’和其他填充词。”)
  • Chat: 聊天模式

ChatGPT与OpenAI Playground 区别

Chat GPT 是一种工具,可让您通过聊天界面与 GPT-3.5 进行实时交互。 您可以通过向它提供提示来使用它来生成文本,它会根据您提供的信息生成文本。

OpenAI Playground 是一种基于 Web 的工具,可让您以更具交互性和灵活性的方式试验 GPT-3 和其他 OpenAI 模型。 它提供了多种选项和设置,您可以使用这些选项和设置来自定义模型的行为,例如模型的大小、输出类型等。

一般来说,如果您只想通过提供提示来快速生成文本,Chat GPT 是一个不错的选择,而 OpenAI Playground 更适合想要尝试不同设置和选项以自定义模型行为的更高级用户。
Chat GPT 使用 GPT 3.5,Playground 使用 GPT 3。但是,Chat GPT 目前处于免费研究预览阶段,您可以免费使用它。 帽子的免费研究预览期过后,您将无法再免费访问该模型。 如果您想继续使用 Chat GPT,则需要注册付费订阅。

Chat GPT 的使用还意味着您的输入和输出将被保存。 所以不要输入个人或敏感信息。

Playground 是一个用户友好的界面,用于与 GPT-3 交互,GPT-3 是 OpenAI 开发的一种基于大规模神经网络的语言生成模型。 另一方面,ChatGPT 是 GPT-3 的较小版本,专为会话语言理解和生成任务而设计。 换句话说,Playground 是使用 GPT-3 的工具,而 ChatGPT 是 GPT-3 的特定版本,针对类似聊天机器人的交互进行了优化。

最后,两者之间的区别在于“Playground”是一个 Playground,而 Chat GPT 是一个独立的应用程序。 一个可以使用参数并查看它如何影响令牌使用和输出性能的空间,因此您可以查看在使用 API 将 GPT 3 实施到您的项目中后要选择的参数。

博客怎么使用playground

下面是playground地址,可以自己玩玩, 但是只是刚开始免费。

https://platform.openai.com/playground

提示工程

提示工程(Prompt engineering)是人工智能中的一个概念,特别是自然语言处理(NLP)。 在提示工程中,任务的描述会被嵌入到输入中。例如,不是隐含地给予模型一定的参数,而是以问题的形式直接输入。 提示工程的典型工作方式是将一个或多个任务转换为基于提示的数据集,并通过所谓的“基于提示的学习(prompt-based learning)”来训练语言模型。提示工程可以从一个大型的“冻结”预训练语言模型开始工作,其中只学习了提示的表示方法,即所谓的“前缀调整(prefix-tuning)”或“提示调整(prompt tuning)”。

语言模型GPT-2和GPT-3是提示工程的重要步骤。 2021年,使用多个NLP数据集的多任务提示工程在新任务上显示出良好的性能。在小样本学习的例子中,包含思维链的提示在语言模型中显示出更好的推理能力。零样本学习中,在提示中预留鼓励思考链的语句(如“让我们一步一步地思考”)可能会提高语言模型在多步骤推理问题中的表现。这些工具的广泛可及性由几个开源笔记和社区主导的图像合成项目的发布所推动。

一份关于处理提示的描述报告称,在2022年2月,约有170个数据集的2000多个公共提示可用。

2022年,DALL-E、Stable Diffusion、Midjourney等机器学习模型得到公开发布。这些模型以文本提示为输入,并使用其生成图像,这影响了一个与文生图提示有关的新品种提示工程.

思路链(Chain-of-thought)


思维链提示(Chain-of-thought prompting) (CoT) 通过提示 LLM 生成一系列中间步骤来提高 LLM 的推理能力,这些中间步骤会导致多步骤问题的最终答案。 该技术由谷歌研究人员于 2022 年首次提出。

使用深度学习方法对大量文本进行训练的 LLM 可以生成类似于人类生成文本的输出。 虽然 LLM 在各种自然语言任务上表现出色,但在一些需要逻辑思维和多个步骤才能解决的推理任务上仍然面临困难,例如算术或常识推理问题。  为了应对这一挑战,CoT 提示提示模型在给出多步骤问题的最终答案之前生成中间推理步骤。 

例如,给出问题“问:自助餐厅有 23 个苹果。 如果他们用 20 个做午餐,又买了 6 个,他们有多少个苹果?”,CoT 提示可能会促使 LLM 以模仿“A:自助餐厅最初有 23 个苹果”这样的推理步骤来回答 . 他们用了 20 来做午餐。 所以他们有 23 - 20 = 3。他们又买了 6 个苹果,所以他们有 3 + 6 = 9。答案是 9。”

与标准提示方法相比,思维链提示提高了 LLM 在算术和常识任务上的平均表现。 当应用于 540B 参数语言模型 PaLM 时,CoT 提示显着帮助了模型,使其在多个任务上的表现与特定任务微调模型相当,甚至在 GSM8K 数学模型上创下了当时的最新技术水平 推理基准。

CoT 提示是模型规模的一个新兴属性,这意味着它可以更好地与更大、更强大的语言模型一起工作。 可以对 CoT 推理数据集上的模型进行微调,以进一步增强这种能力并激发更好的可解释性。

上下文学习(in-context learning )的一个常见示例是思维链提示(chain-of-thought prompting)

思维链提出的论文有如下两篇

  1.  Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V.; Zhou, Denny (31 October 2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models". arXiv:2201.11903.
  2. ^ Wei, Jason; Zhou. "Language Models Perform Reasoning via Chain of Thought". ai.googleblog.com. Retrieved 10 March 2023.

恶意利用

提示注入是一系列相关的计算机安全漏洞,通过让经过训练的机器学习模型(如大型语言模型)遵循人类给出的指令来遵循恶意用户提供的指令,这与指令遵循系统的预期操作形成对比,其中机器学习模型只遵循机器学习模型操作员所提供的可信指令(提示).

提示性注入可以被看作是一种使用对抗性提示工程的代码注入攻击。2022年,NCC集团将提示注入定性为AI/ML系统的一类新漏洞。

在2023年左右,提示注入在针对ChatGPT和类似的聊天机器人的次要漏洞中出现,例如揭示系统隐藏的初始提示,或者欺骗聊天机器人参与到违反聊天机器人内容政策的对话。

Meta-learning

        元学习:在语言模型的上下文中,模型在训练时发展出广泛的技能和模式识别能力,然后在推理时使用这些能力来快速适应或识别所需的任务。下图中的inner loop和outer loop一起被称为meta-learning.

it means the model develops a broad set of skills and pattern recognition abilities at training time, and then uses those abilities at inference time to rapidly adapt to or recognize the desired task

图 1.1:语言模型元学习(meta-learning)。 在无监督预训练期间,语言模型会发展出广泛的技能和模式识别能力。 然后它在推理时使用这些能力来快速适应或识别所需的任务。 我们使用术语“上下文学习(in-context learning)”来描述这个过程的内部循环,它发生在每个序列的前向传递中。 此图中的序列并不是为了代表模型在预训练期间会看到的数据,而是为了表明有时会在单个序列中嵌入重复的子任务。

  

      在语言模型的上下文中,这有时被称为“zero-shot transfer”,但这个术语可能有歧义:该方法在不执行梯度更新的意义上是“zero-shot”,但它通常涉及提供推理- 模型的时间演示,所以并不是真正从零示例中学习。 为了避免这种混淆,我们使用术语“meta-learning”来描述一般方法的内循环/外循环结构,使用术语“上下文学习”来指代元学习的内循环。 我们进一步将描述专门化为“zero-shot、“one-shot”或“few-shot”,具体取决于在推理时提供了多少演示。 这些术语旨在对模型是在推理时从头开始学习新任务还是简单地识别训练期间看到的模式这一问题保持不可知——这是一个重要的问题,但“元学习”是旨在涵盖这两种可能性,并简单地描述了内-外循环结构

1In the context of language models this has sometimes been called “zero-shot transfer”, but this term is potentially ambiguous: the method is “zero-shot” in the sense that no gradient updates are performed, but it often involves providing inference-time demonstrations to the model, so is not truly learning from zero examples. To avoid this confusion, we use the term “meta-learning” to capture the inner-loop / outer-loop structure of the general method, and the term “in context-learning” to refer to the inner loop of meta-learning. We further specialize the description to “zero-shot”, “one-shot”, or “few-shot” depending on how many demonstrations are provided at inference time. These terms are intended to remain agnostic on the question of whether the model learns new tasks from scratch at inference time or simply recognizes patterns seen during training – this is an important issue which we discuss later in the paper, but “meta-learning” is intended to encompass both possibilities, and simply describes the inner-outer loop structure.

in-context learning

我们使用术语“上下文学习(in-context learning)”来描述这个过程的内部循环,它发生在每个序列的前向传递中

in-context learning 就是图中的内部循环(inner loop), 它是指模型在输入的每个序列数据中前向传递过程中学习到的东西。

图 1.1:语言模型元学习(meta-learning)。 在无监督预训练期间,语言模型会发展出广泛的技能和模式识别能力。 然后它在推理时使用这些能力来快速适应或识别所需的任务。 我们使用术语“上下文学习(in-context learning)”来描述这个过程的内部循环,它发生在每个序列的前向传递中。 此图中的序列并不是为了代表模型在预训练期间会看到的数据,而是为了表明有时会在单个序列中嵌入重复的子任务。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/49576.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatDoctor本地部署应用的实战方案

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法…

电信青年员工踏上三千里数字化追梦之旅,数字员工为电信高质量发展注智赋能

导语: 近年来,广西电信紧紧围绕集团战略,聚焦产业数字化发展机遇,加强前瞻性技术研究和人工智能产业应用研究,为夯实高质量发展增添科技动力。 在数字中国建设的大背景下,广西电信全资子公司广西壮族自治区…

AI加速财务智能化,实在智能、优贲财税、楚云科技共探数字员工新未来

作为财务发展的最新前沿,智能财务正在逐步渗入日常工作中,加快企业数字化转型步伐,促进我国财务信息化建设的快速发展。在当前形势下,企业应如何进行数字化转型以重塑业务、财务和税务等关系,形成管理闭环,…

AI安全03:如何监督AI

前言 菜鸟入门中~请ChatGPT老师继续上文讨论的话题:如果AI监督AI,甚至AI攻击AI,那么人类应该为AI的行为设置哪些监控措施? 写在前面: 1 以下讨论均针对自然语言模型~ 2 是个菜鸟的空想,肯定会有说错的地…

卡塔尔世界杯起航了

卡塔尔世界杯,从申请成功之初,就充满了争议,卡塔尔夏天最低温度是35度,经过协调,挪到了冬天举行,但这正是欧洲各国联赛最忙的时候,导致很多球员不得不一周双赛,调整空间有限&#xf…

【我爱世界杯】伪球迷眼里的世界杯

大家好,我是【架构师李肯】,一个专注于嵌入式物联网架构设计的攻城狮。 文章目录 按理说聊一聊我和足球第一次热衷于关注世界杯后ying情时代的卡塔尔世界杯祝愿世界杯 按理说 嗯,按理说,我一个程序猿,既不踢球&#x…

卡塔尔世界杯︱足球游戏的打开方式

距离卡塔尔世界杯开始还有一周的时间,你为此做好什么准备了吗? 一些狂热的球迷为了追求极致的观感和身临其境感,不惜在电视、音响上下重金;也有一些为了享受世界杯热闹氛围的人,囤好零食,或是和好友早早约…

世界杯数据清单:真球迷看球必备,伪球迷速成指南(附数据amp;论文)

来源:大数据 本文共5583字,建议阅读10分钟。 本文基于数据从球队、球员、比赛三个方面与你聊世界杯的热门知识与冷知识,全面解读2018世界杯。 [ 导读 ]每隔4年都有那么1个月,无论是线上还是线下,不管是真球迷还是真球盲…

卡塔尔世界杯——你认为今年谁会是冠军?

本届世界杯从小组赛开始就爆冷不断,阿根廷在首场失利,德国小组赛没出线,五星巴西被非洲冠军摩洛哥给干趴下了,C罗止步4强,39岁的莫德里奇也被裁判终结了,谁才能是笑道最后的队伍?莫德里奇率领的…

上传用户头像-后端

每个网站中都有用户头像的上传功能,刚刚再刷后springboot项目有些心得分享一下,如某站上的电脑商城的项目为例,先给出它的数据库 其中avatar字段名就是用户存储在服务器端的图片的地址,这个表在上传用户头像时要更改的字段名是修改…

头像上传功能

头像上传 A> MultipartFile接口 MultipartFile接口常用的的API见下表: 方法功能描述String getOriginalFilename()获取上传文件的原始文件名,即该文件在客户端中的文件名boolean isEmpty()判断上传的文件是否为空,当没有选择文件就直接…

3.用户上传头像

还是三层架构,首先考虑数据访问层,这一层没有什么处理,因为是把头像存到硬盘里没有存到数据库里;业务层需要就是上传完头像后更新headurl,服务端就需要提供一个改变头像路径的功能;上传文件这个事就在contr…

个人资料上传头像模块,拍照+图库+图片剪裁+圆形头像

先看效果图: 注意: 因为模拟器的原因裁剪图片的页面只能拖拽,实际在手机上是可以放大旋转等操作的 实现思路: 1.三个自定义的view,分别是圆形的Imageview,可拖拽放大旋转的Imageview,裁剪图片的view(裁剪页面的矩形) 2.点击主界面的上传头像,开启一个透明的透明的Activity,在…

vant 列表组件:App我的、个人中心(含头像、手机号、用户名、点击交互)

案例截图&#xff1a; <template> <div class"app-container"><!-- 导类栏 --><van-nav-bartitle"我的"left-arrowclick-left"$router.back()"/><!-- 我的 --><div class"wii-user-head"><!--…

Android开发之用户头像上传

一&#xff0c;概述 本篇博客总结一下自己在开发过程中应用到的一些知识&#xff0c;在本篇博客中带领大家完成用户头像选择或者拍照上传&#xff0c;并对图片进行大小的压缩&#xff0c;和形状的控制&#xff0c;可以将用户选择到的图片裁剪成圆形上传。 ok&#xff0c;我们开…

X站全称是什么_考不上高中上什么专业

商洛考不上高中上什么好处 高职和大专区别是什么&#xff1f;高职不如大专吗&#xff1f;高职毕业是否可以续读本科&#xff1f;高职毕业只能做工人吗&#xff1f;高职和大专的主要区别在分为学习内容上的不同以及表达内容等方面的不同&#xff0c;但是本质上并没有区别&#x…

一文搞清到底什么是 .NET?

现在各种 .NET 满天飞&#xff0c;别说新手了&#xff0c;连我这样的老手都差点被绕进去。到底什么是 .NET 呢&#xff1f;《通俗易懂&#xff0c;什么是.NET?什么是.NET Framework&#xff1f;什么是.NET Core? 》这篇文章好长呀&#xff0c;不知道你看完了没有&#xff0c;…

中台,都他妈被你们说糊涂了,文内才是正宗解释,别摸石头过河了,石头早就有了...

&#xff08;1&#xff09;我们先说说技术架构分层 我们按技术架构通常是这样的&#xff1a; 1、UI交互层&#xff1a;Windows UI、PC Web UI、移动App UI、微信小程序UI、摄像头视觉识别人机界面、语音交互人机界面 2、逻辑层&#xff1a;面向对象技术/组件技术/SOA服务中间件…

Vue与React不是真正的响应式编程,Svelte才是正宗

这个题目可能有点夸张&#xff0c;但不管怎样 Svelte 和它的理念就是这样的。如果你还没听说过 Svelte 的话就去了解一下吧——你会见证一场革命的&#xff0c;它将取得空前的成就&#xff08;没有给 Svelte 团队增加压力的意思&#xff09;。 本文不是 Svelte 的入门教程。Sv…