初识大模型——大语言模型 LLMBook 学习(一)

1. 大模型发展历程

🔹 1. 早期阶段(1950s - 1990s):基于规则和统计的方法

代表技术:

  • 1950s-1960s:规则驱动的语言处理

    • 早期的 NLP 主要依赖 基于规则的系统,如 Noam Chomsky 提出的 生成语法(Generative Grammar)
    • 这些系统使用手工编写的规则来解析和生成句子,但扩展性差。
  • 1970s-1990s:统计语言模型(Statistical Language Models, SLM)

    • 1980s 以后,随着计算能力的提高,研究者开始使用 统计方法 处理语言,如 n-gram 语言模型
    • 1990s,隐马尔可夫模型(HMM)条件随机场(CRF) 被广泛用于语音识别和词性标注。

🔹 2. 机器学习时代(2000s - 2018s):神经网络与深度学习

代表技术:

  • 2000s:基于神经网络的 NLP

    • 2003 年,Bengio 等人提出神经网络语言模型(Neural Language Model, NLM),引入了**词向量(Word Embeddings)**的概念。
    • 2013 年,Google 的 Word2Vec 算法问世,使得词向量学习成为 NLP 研究的标准方法。
  • 2014-2017:RNN、LSTM、Seq2Seq 和 Attention

    • 2014 年,循环神经网络(RNN)长短时记忆网络(LSTM) 被用于机器翻译。
    • 2015 年,Google 提出了 Seq2Seq 模型,用于机器翻译和文本摘要。
    • 2017 年,Google 发表论文《Attention Is All You Need》,提出 Transformer 模型,彻底改变 NLP 领域。

🔹 3. 预训练大模型时代(2018 - 至今):Transformer 和大规模语言模型

代表技术:

  • 2018 年:BERT(Google)

    • Google 发表 BERT(Bidirectional Encoder Representations from Transformers),首次引入 双向 Transformer 预训练,显著提升 NLP 任务的表现。
  • 2019 年:GPT-2(OpenAI)

    • OpenAI 推出 GPT-2(Generative Pre-trained Transformer 2),展示了强大的文本生成能力,但由于担心滥用,最初未完全公开。
  • 2020 年:GPT-3(OpenAI)

    • GPT-3 具有 1750 亿参数,是当时最大的语言模型,能够执行多种 NLP 任务,如写作、翻译、编程等。
  • 2021 年:T5、GPT-3.5、Codex

    • Google 推出 T5(Text-to-Text Transfer Transformer),强调统一 NLP 任务的架构。
    • OpenAI 发布 Codex,用于代码生成,并成为 GitHub Copilot 的核心技术。
  • 2022 年:GPT-4、PaLM、BLOOM

    • OpenAI 发布 GPT-4,具备更强的推理能力和多模态(文字+图片)处理能力。
    • Google 推出 PaLM(Pathways Language Model),支持更大的数据规模和更广泛的任务。
    • 由多个研究机构联合开发的 BLOOM 模型,作为开源替代方案。
  • 2023-2024 年:GPT-4 Turbo、Gemini、Claude

    • OpenAI 推出 GPT-4 Turbo,在 GPT-4 的基础上优化了速度和成本。
    • Google DeepMind 发布 Gemini 1.5,支持更长的上下文窗口(100 万 token)。
    • Anthropic 公司推出 Claude 3,在推理和多模态能力上有所提升。

🔹 未来趋势

  1. 更大规模、更高效的模型:模型参数越来越大,但也在优化计算效率,如 Mixture-of-Experts(MoE)架构。
  2. 多模态 AI:不仅支持文本,还能理解和生成图像、音频、视频等内容。
  3. 个性化 AI:未来的 AI 可能会根据用户习惯进行个性化调整,提高交互体验。
  4. 更强的推理与规划能力:AI 可能会发展出更复杂的逻辑推理和长期规划能力。
  5. 更安全和可控的 AI:随着 AI 能力增强,如何避免滥用和确保安全性成为重要研究方向。

大语言模型具有以下能力:

  1. 范围广泛的世界知识
  2. 较强的人类指令遵循能力
  3. 改进的复杂任务推理能力
  4. 较强的通用任务解决能力
  5. 较好的人类对齐能力
  6. 较强的多轮对话交互能力

这些能力使得大语言模型在知识问答、任务执行、逻辑推理、对话交互等方面表现出色,并推动 AI 技术在各个领域的应用与发展。 🚀


2. 大模型的到来引发的变革

大语言模型(LLM,如 GPT-4、Gemini、Claude 等)的发展,不仅提升了人工智能的能力,还在多个领域引发了深远的变革。以下是主要影响:
大模型发展历程


1. 人工智能应用的普及

🚀 传统 AI 向通用 AI 过渡
  • 过去的 AI 主要是 专用 AI(如语音助手、搜索引擎、翻译工具)。
  • 大模型推动了 通用 AI(AGI)的发展,使 AI 能够处理更广泛的任务,如写作、编程、推理、创意生成等。

影响

  • AI 由“工具”向“智能助手”转变,能自主执行复杂任务。
  • AI 进入日常生活,如智能客服、虚拟助理、AI 生成内容(AIGC)。

2.生产力革命

📈 提高工作效率,改变工作方式
  • 自动化办公:AI 生成报告、邮件、PPT,提升效率。
  • 智能编程:AI 辅助代码开发(如 GitHub Copilot),减少重复劳动。
  • 数据分析:AI 处理大规模数据,提高商业决策能力。

影响

  • 减少重复性工作,让人类专注于创造性任务。
  • 降低技术门槛,让非专业人士也能利用 AI 进行复杂任务。

3.产业变革

🏭 传统行业的智能化升级
  • 媒体与内容创作:AI 生成文章、视频、音乐(AIGC)。
  • 教育:智能辅导、个性化学习、自动批改作业。
  • 医疗:AI 辅助诊断、药物研发、健康管理。
  • 法律:合同审查、法律咨询自动化。
  • 金融:智能投顾、风险评估、自动交易。

影响

  • AI 让企业 降本增效,提高竞争力。
  • 传统行业加速 数字化转型,催生新商业模式。

4.人才市场的变化

👨‍💻 AI 取代部分岗位,催生新职业
  • 减少低端重复性工作(如数据录入、基础客服)。
  • 催生新职业(如 AI 提示工程师、AI 伦理专家)。
  • 要求更高的技能(如 AI 驱动的决策、创造性思维)。

影响

  • 部分岗位被 AI 替代,需要 提升技能 适应变化。
  • 人机协作成为主流,AI 辅助人类完成更复杂的任务。

5.信息传播与认知变革

🌍 AI 影响人类获取和理解信息的方式
  • 搜索引擎升级:AI 直接回答问题,减少传统搜索需求。
  • 个性化推荐:AI 根据用户偏好提供精准内容。
  • 信息生成:AI 生成新闻、报告、社交媒体内容。

影响

  • 加速信息传播,但也带来 虚假信息 风险。
  • 改变学习方式,知识获取更加高效。

6.伦理与安全挑战

⚠️ AI 发展带来的风险
  • 假信息泛滥:AI 生成的假新闻、深度伪造(deepfake)可能误导公众。
  • 数据隐私问题:AI 需要大量数据,可能涉及隐私泄露。
  • 算法偏见:AI 可能继承训练数据中的偏见,影响公平性。
  • 滥用问题:AI 可能被用于诈骗、恶意攻击等。

影响

  • 需要 加强 AI 监管,制定 伦理规范
  • 促进 可信 AI 发展,确保 AI 透明、公正、安全。

7.科研与技术创新

🧠 AI 促进科学研究
  • 加速新药研发:AI 预测分子结构,缩短研发周期。
  • 物理与天文:AI 处理大规模数据,加速科学发现。
  • 数学与理论研究:AI 辅助证明数学定理。

影响

  • AI 成为 科研助手,加速突破前沿科技。
  • 促进 跨学科融合,推动新技术发展。

大模型的到来不仅是 AI 领域的技术突破,更是 社会、经济、文化 领域的深刻变革。它提升了生产力,改变了产业格局,同时也带来了新的挑战和机遇。未来,我们需要 合理利用 AI,推动技术向更加 安全、透明、可控 的方向发展。🚀

3. 大模型技术基础

在这里插入图片描述

1.大模型的定义

  • 大语言模型 指的是 参数规模极大(通常数十亿到万亿级)的 预训练语言模型,能够理解和生成自然语言。
  • 这些模型通过 大规模数据训练,具备 广泛的知识语言理解能力

2.大模型的架构

  • 主要采用 Transformer 解码器架构
    • Transformer 是目前最先进的深度学习架构之一,具有 并行计算能力强、长距离依赖建模能力强 等特点。
    • 其中,大模型通常使用 解码器(Decoder) 结构,而非完整的编码器-解码器结构。

3.大模型的训练过程

在这里插入图片描述
训练过程分为 两大阶段

🔹 预训练(Pre-training)—— 训练基础能力

在这里插入图片描述

  • 数据:使用 海量文本数据(如书籍、论文、网页、对话等)。
  • 优化目标预测下一个词(Next Token Prediction)。
  • 结果:训练出 基础模型(Base Model),具备 语言理解和生成能力,但尚未针对具体任务优化。
🔹 后训练(Fine-tuning)—— 增强任务能力

在这里插入图片描述

  • 数据:使用 大量指令数据(如人类指令、对话数据、任务示例等)。
  • 优化方法
    • SFT(Supervised Fine-Tuning):监督微调,让模型更好地遵循人类指令。
    • RLHF(Reinforcement Learning with Human Feedback):基于人类反馈的强化学习,使模型的回答更符合人类偏好。
  • 结果:训练出 指令模型(Instruct Model),能够更好地执行 特定任务(如问答、代码生成、写作等)。

拓展定律

在这里插入图片描述

核心观点

更大的模型(更多参数)+ 更多数据 + 更强算力 = 更强的 AI 能力
通过扩展 计算量(Compute)、数据规模(Dataset Size) 和 模型参数(Parameters),可以系统性地降低模型的 测试损失(Test Loss),提升模型的表现。
1. 计算量(Compute)
计算量越大,模型训练得越充分,损失下降。
但计算量的 回报递减,即增加计算量带来的收益逐渐减少。
2. 数据规模(Dataset Size)
训练数据越多,模型的泛化能力越强,损失下降更快。
但如果数据质量低,单纯增加数据可能不会带来提升。
3. 模型参数(Parameters)
更大的模型(更多参数)通常表现更好,但前提是有足够的数据和计算资源支持。过大的模型如果数据不足,可能会导致 过拟合(overfitting)。

  • 大模型为何有效?

    • 过去 AI 发展依赖于 算法优化,但大模型时代,规模扩展(Scaling)成为核心驱动力。
    • 只要 数据、算力、模型规模 继续增长,AI 仍能不断进步。
  • GPT-4、Gemini 等大模型的成功

    • 这些模型的进化路径符合 扩展定律,即通过 增加参数、数据、算力 来提升能力。
    • 例如 GPT-4 相比 GPT-3,主要是 参数规模更大、数据更多、训练更充分,因此表现大幅提升。
  • 未来发展趋势

    • 目前的大模型仍在 扩展阶段,但未来可能会遇到 数据瓶颈 或 计算成本过高 的问题。
    • 研究人员正在探索 更高效的训练方法,如 混合专家模型(MoE)、自监督学习优化 等,以减少计算成本。
涌现能力
📌 什么是涌现能力?

涌现能力(Emergent Abilities) 指的是 在小型模型中不存在,但在大规模模型中突然出现的能力


1. 涌现能力的定义
  • 原始论文定义

    “在小型模型中不存在,但在大模型中出现的能力。”

  • 这意味着 某些复杂任务的能力 只有当模型达到 足够大的规模 时才会突然显现,而不是随着规模线性增长。

2.涌现能力的特点
  • 非线性增长:随着模型规模扩大,某些能力不会逐步提升,而是在 达到某个临界点 后突然跃升。
  • 超越随机水平:在小模型中,模型的表现接近随机水平,但在大模型中,表现远超随机猜测。
  • 任务多样性:涌现能力可以体现在 数学推理、自然语言理解(NLU)、上下文推理 等多个任务上。

3. 论文中的实验结果

在这里插入图片描述

  1. 数学运算(Mod. Arithmetic)

    • 小模型几乎无法完成数学计算,但当模型规模达到 (10^{22}) 级别时,准确率突然大幅提升。
  2. 多任务自然语言理解(Multi-task NLU)

    • 小模型的表现接近随机水平,但大模型在理解复杂语境时表现显著提升。
  3. 上下文词义理解(Word in Context)

    • 只有当模型达到一定规模时,才能正确理解 同一个词在不同上下文中的含义
      某些能力只有当模型足够大时才会涌现,而不是随着规模逐步提升。

涌现能力的影响
  • 大模型的突破

    • 过去,AI 主要依赖 手工设计规则小规模模型优化,但涌现能力表明 规模本身就是一种优化手段
    • 只要 增加参数、数据和计算量,AI 可能会自动学会某些复杂能力。
  • AI 发展趋势

    • 未来 AI 可能会继续展现 更多未曾预料的能力,比如更强的推理、规划、甚至自主学习能力。
    • 研究人员需要探索 如何控制和利用这些能力,避免不可预测的风险。

4.大模型核心技术解析

在这里插入图片描述

1.规模扩展(Scaling)

  • 扩展定律(Scaling Laws) 表明,增加模型参数、数据规模和计算量,可显著提升模型能力。
  • 关键点:参数规模增大(如 GPT-3 → GPT-4)、数据规模扩展、计算能力提升(GPU/TPU)。

2.数据工程(Data Engineering)

  • 数据数量、质量和预处理方法 直接决定模型性能。
  • 关键点:海量高质量数据、数据清洗与增强、去噪处理。

3.高效预训练(Efficient Pre-training)

  • 大模型训练需要强大计算资源,需建立高效、可扩展训练架构。
  • 关键点:分布式训练、混合精度计算(FP16/FP8)、自监督学习。

4.能力激发(Capability Activation)

  • 基础模型需微调(Fine-tuning) 以适应特定任务。
  • 关键点:微调、对齐技术(RLHF)、提示工程(Prompt Engineering)。

5.人类对齐(Human Alignment)

  • 防止错误、有害或偏见内容,确保 AI 可靠性。
  • 关键点:安全性优化、减少幻觉(Hallucination)、伦理与公平性。

6.工具使用(Tool Use)

  • 结合外部工具增强能力,拓展应用范围
  • 关键点:代码执行(Python、SQL)、搜索引擎集成、插件(Plugins)。

5.GPT和DeepSeek介绍

1. GPT体系

在这里插入图片描述

2.GPT发展历程

在这里插入图片描述

1. GPT-1(2018):开创预训练 + 微调范式
🔹 关键优化点
  • 引入 Transformer 架构:相比 RNN 和 LSTM,Transformer 具备 更强的并行计算能力,提升了训练效率。
  • 自回归预训练(Autoregressive Pre-training):使用 无监督学习 训练,预测下一个词(Next Token Prediction)。
  • 微调(Fine-tuning):在特定任务(如问答、情感分析)上进行微调,提高模型的任务适应性。
  • 参数规模:1.17 亿(1.17B)。
🔹 局限性
  • 数据规模较小(仅使用 BookCorpus 训练)。
  • 未使用大规模互联网数据,知识覆盖有限。
  • 缺乏对齐技术,容易生成不准确或不安全的内容。

2.GPT-2(2019):扩大规模,提升文本生成能力
🔹 关键优化点
  • 大规模数据训练:使用 WebText 数据集,涵盖更广泛的文本内容。
  • 参数规模大幅增长
    • GPT-2 小型版:1.5 亿(0.15B)
    • GPT-2 完整版:15 亿(1.5B)
  • 更自然的文本生成:生成的文本连贯性和上下文理解能力显著提升。
  • 零样本(Zero-shot)、少样本(Few-shot)学习:在 没有微调的情况下 也能完成部分任务。
🔹 局限性
  • 仍然存在幻觉(Hallucination),容易生成不真实的内容。
  • 缺乏人类对齐(Alignment),可能生成有害或偏见内容。
  • 计算成本较高,训练难度增加。

3.GPT-3(2020):参数暴涨,涌现能力初现
🔹 关键优化点
  • 参数规模爆炸式增长
    • GPT-3:1750 亿(175B)参数,远超 GPT-2。
  • 更强的涌现能力(Emergent Abilities)
    • 数学运算、代码生成、逻辑推理 等能力显著增强。
  • 少样本学习(Few-shot Learning)能力提升
    • 通过 提示工程(Prompt Engineering),模型可以在 几乎不需要微调的情况下 解决复杂任务。
  • 更丰富的数据训练
    • 训练数据涵盖 书籍、论文、代码、新闻、对话 等多种文本来源。
🔹 局限性
  • 仍然缺乏 RLHF(人类反馈强化学习),容易生成不安全或有害内容。
  • 计算成本极高,推理速度较慢。
  • 幻觉问题依然存在,在事实性任务上仍有错误。

4.InstructGPT(2022):引入 RLHF,提高对齐性
🔹 关键优化点
  • 引入人类反馈强化学习(RLHF)
    • 通过 人类评分数据 训练模型,使其更符合人类期望。
    • 减少有害内容,提高回答的安全性和准确性。
  • 优化对话能力
    • 更自然、更符合用户意图,减少胡编乱造的情况。
  • 成为 ChatGPT 的基础
    • InstructGPT 是 ChatGPT 的前身,使 AI 更适合对话交互。
🔹 局限性
  • 仍然存在幻觉问题,但比 GPT-3 有所改善。
  • 对话能力增强,但仍然无法进行深度推理和长期记忆

4.GPT-4(2023):多模态增强,推理能力升级
🔹 关键优化点
  • 引入多模态能力(Multimodal)
    • 支持图像输入,可以理解图片内容(如 OpenAI 的 GPT-4V)。
  • 推理能力大幅提升
    • 更强的逻辑推理、数学计算和代码生成能力
    • 更长的上下文窗口,可以处理更长的文本输入。
  • 更强的对齐技术
    • 优化 RLHF 训练,减少幻觉,提高事实性回答的准确率。
    • 更安全的内容生成,降低偏见和错误信息。
🔹 局限性
  • 仍然无法完全消除幻觉问题,在部分领域仍可能生成错误信息。
  • 计算成本极高,推理速度仍然有限。
  • 对话记忆仍然有限,无法进行长期上下文追踪。

6.GPT-4.5 / GPT-5(未来预测)
🔹 可能的优化点
  • 更长的上下文窗口(如 100K+ tokens)。
  • 更强的多模态能力(结合视频、音频、3D 视觉等)。
  • 更高效的推理能力(更接近 AGI)。
  • 更低的计算成本,使 AI 更容易普及。
  • 更强的个性化与记忆能力,可以长期记住用户的偏好和对话历史。

3.DeepSeek技术

发展历程

在这里插入图片描述

改进点

在这里插入图片描述
在这里插入图片描述

DeepSeek-V3

在这里插入图片描述

DeepSeek-R1

在这里插入图片描述

参考文献

Datawhale大模型组队学习地址

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/30987.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

实现静态网络爬虫(入门篇)

一、了解基本概念以及信息 1.什么是爬虫 爬虫是一段自动抓取互联网信息的程序,可以从一个URL出发,访问它所关联的URL,提取我们所需要的数据。也就是说爬虫是自动访问互联网并提取数据的程序。 它可以将互联网上的数据为我所用,…

Net8 Spire最新版去水印,去页数限制,转word/pptx/ofd等

新建控制台程序,添加Spire.pdf,最新版本为2024年7月17日 下载连接: Net8 Spire最新版去水印,去页数限制,转word/pptx/ofd等 https://download.csdn.net/download/LongtengGensSupreme/90459916 把下载的Spire.Pdf.dll类库版本 …

MyBatis增删改查:静态与动态SQL语句拼接及SQL注入问题解析

MyBatis 是一个优秀的持久层框架,它支持定制化 SQL、存储过程以及高级映射。MyBatis 避免了几乎所有的 JDBC 代码和手动设置参数以及获取结果集的工作。本文将深入探讨 MyBatis 中的增删改查操作,重点讲解静态与动态 SQL 语句的拼接,并分析 S…

《苍穹外卖》SpringBoot后端开发项目重点知识整理(DAY1 to DAY3)

目录 一、在本地部署并启动Nginx服务1. 解压Nginx压缩包2. 启动Nginx服务3. 验证Nginx是否启动成功: 二、导入接口文档1. 黑马程序员提供的YApi平台2. YApi Pro平台3. 推荐工具:Apifox 三、Swagger1. 常用注解1.1 Api与ApiModel1.2 ApiModelProperty与Ap…

本地部署自己的多专家协作系统:环境配置篇1

本项目旨在模拟多个行业专家对问题进行精细分工,并逐一回答后汇总,从而得到更专业的回复。 链接:MultyAgentCollabration项目地址 配置的B站讲解视频:B站讲解视频 本文着重介绍环境配置方法 一定要先下拉项目哦,或者…

FFmpeg入门:最简单的音视频播放器

FFmpeg入门:最简单的音视频播放器 前两章,我们已经了解了分别如何构建一个简单和音频播放器和视频播放器。 FFmpeg入门:最简单的音频播放器 FFmpeg入门:最简单的视频播放器 本章我们将结合上述两章的知识,看看如何融…

ThinkPHP框架

在电脑C磁盘中安装composer 命令 在电脑的D盘中创建cd文件夹 切换磁盘 创建tp框架 创建一个aa的网站,更换路径到上一步下载的tp框架路径 在管理中修改路径 下载压缩包public和view 将前面代码中的public和view文件替换 在PHPStom 中打开文件 运行指定路径 修改demo…

HTTPS加密原理详解

目录 HTTPS是什么 加密是什么 HTTPS的工作流程 1.使用对称加密 2.引入非对称加密 3.引入证书机制 客户端验证证书真伪的过程 签名的加密流程 整体工作流程 总结 HTTPS是什么 HTTPS协议也是一个应用程协议,是在HTTP的基础上加入了一个加密层,由…

基于SpringBoot的餐厅点餐管理系统设计与实现(源码+SQL脚本+LW+部署讲解等)

专注于大学生项目实战开发,讲解,毕业答疑辅导,欢迎高校老师/同行前辈交流合作✌。 技术范围:SpringBoot、Vue、SSM、HLMT、小程序、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容:…

第十五届蓝桥杯省赛电子类单片机学习过程记录(客观题)

客观试题: 01.典型的BUCK电源电路包含哪些关键器件(ABCD) A. 电容 B. 二极管 C. 电感 D. MOSFET 解析: 典型的 BUCK 电源电路是一种降压型的直流-直流转换电路,它包含以下关键器件: A.电容:电容在电路中起到滤波的作用。输入电容用于平滑输入电压的波动,减少电源噪声对…

基于单片机的智慧农业大棚系统(论文+源码)

1系统整体设计 经过上述的方案分析,采用STM32单片机为核心,结合串口通信模块,温湿度传感器,光照传感器,土壤湿度传感器,LED灯等硬件设备来构成整个控制系统。系统可以实现环境的温湿度检测,土壤…

【GPT入门】第1课准备环境

【GPT入门】第1课 准备环境 1.安装conda环境 参考我的安装文档:https://blog.csdn.net/spark_dev/article/details/145071250 2.安装idea,或其它开发软件 3.idea中选择conda的python idea会为每个项目配置一个独立的python环境,方便python版本管理 新建…

【hello git】git rebase、git merge、git stash、git cherry-pick

目录 一、git merge:保留了原有分支的提交结构 二、git rebase:提交分支更加整洁 三、git stash 四、git cherry-pick 共同点:将 一个分支的提交 合并到 到另一个上分支上去 一、git merge:保留了原有分支的提交结构 现有一个模型…

Phi-4-multimodal:图、文、音频统一的多模态大模型架构、训练方法、数据细节

Phi-4-Multimodal 是一种参数高效的多模态模型,通过 LoRA 适配器和模式特定路由器实现文本、视觉和语音/音频的无缝集成。训练过程包括多阶段优化,确保在不同模式和任务上的性能,数据来源多样,覆盖高质量网络和合成数据。它的设计…

简单的二元语言模型bigram实现

内容总结归纳自视频:【珍藏】从头开始用代码构建GPT - 大神Andrej Karpathy 的“神经网络从Zero到Hero 系列”之七_哔哩哔哩_bilibili 项目:https://github.com/karpathy/ng-video-lecture Bigram模型是基于当前Token预测下一个Token的模型。例如&#x…

猫耳大型活动提效——组件低代码化

1. 引言 猫耳前端在开发活动的过程中,经历过传统的 pro code 阶段,即活动页面完全由前端开发编码实现,直到 2020 年接入公司内部的低代码活动平台,满足了大部分日常活动的需求,运营可自主配置活动并上线,释…

数据库基础以及基本建库建表的简单操作

文章目录 一、数据库是啥1.1、数据库的概念1.1、关系型数据库、非关系型数据库1.1、数据库服务器,数据库与表之间的关系 二、为啥要使用数据库2.1:传统数据文件存储2.2:数据库存储数据2.3、结论 三、使用数据库了会咋样四、应该咋用数据库&am…

常用无功功率算法的C语言实现(二)

0 前言 尽管数字延迟法和积分移相法在不间断采样的无功功率计算中得到了广泛应用,但它们仍存在一些固有缺陷。 对于数字延迟法而言,其需要额外存储至少1/4周期的采样点,在高采样频率的场景下,这对存储资源的需求不可忽视。而积分移相法虽然避免了额外的存储开销,但为了抑制…

【Linux】初识线程

目录 一、什么是线程: 重定义线程和进程: 执行流: Linux中线程的实现方案: 二、再谈进程地址空间 三、小结: 1、概念: 2、进程与线程的关系: 3、线程优点: 4、线程…

【单片机】ARM 处理器简介

ARM 公司简介 ARM(Advanced RISC Machine) 是英国 ARM 公司(原 Acorn RISC Machine) 开发的一种精简指令集(RISC) 处理器架构。ARM 处理器因其低功耗、高性能、广泛适用性,成为嵌入式系统、移动…