五步走,两个月炼成!王小川的大模型打造秘籍曝光

允中 发自 凹非寺 量子位 | 公众号 QbitAI

王小川两个月交卷的大模型,是怎么炼成的?

现在,这个问题有了更为详细的解。

70亿参数、一经发布就开源可商用,百川智能的中英文大模型baichuan-7B,近期在圈内备受瞩目。

从公开的benchmark测试效果以及社区的使用反馈来看,baichuan-7B的表现非常优秀,据说清北也已经用上了。

其源代码也已在Github、Huggingface等平台发布。

有趣的是,开源社区在围绕baichuan-7B进行实验和应用构建时,GitHub项目LLM-Tuning的作者郭必扬(beyondguo)发现了baichuan-7B的一个特殊能力。

他在做信息抽取实验的时候,自己胡编乱造了一段“新闻”,然后故意将“微软”写成“巨硬”,“亚马逊”写成“亚牛逊”,“谷歌”改为“谷嘎”……

然后使用下面的的instruction:

c53046bbcf76113282c6cdd14ff4645b.png

ChatGPT(3.5)的表现是这样婶儿的:

e1d337d91c9d550b384e216457b42c05.png

接下来就是鹅妹子嘤的时刻了:

2fad32988fb6c3e21ba9b922412ca45f.png

特殊微调之后的 baichuan-7B把作者胡编乱造的公司名字,全都掰了回来!!!

看到这,直接给郭必扬(beyondguo)惊喜(惊吓)住:

本来是乱编的新闻,这这这就说不清了啊!

3c7e3bb36b5188196aa23ea46205844e.png

baichuan-7B的能力我们是看到了,但它开源也并不意味着人人都可以轻易复刻一个大模型出来。

源代码只是算法的核心,也就是能够看到模型结构而已。

“一开源就能人手一份,进行各种换皮魔改,同人逼死官方”这事儿,在大模型这儿行不通。

要得到一款和ChatGPT效果相仿的大模型,算法、算力和数据缺一不可。

抛开算力不讲,从0到1构建一款大模型,都需要哪些步骤?

这不,baichuan-7B给出了一份“高分案例”。

训练大模型五步走

官方透露,baichuan-7B的“炼化”过程可以归纳为五步。

第一步,构建优质的数据集

数据是大模型的三要素之一。

语言模型是一种用于计算“一段文本”出现可能性的统计模型,其本质是建模字、词之间的关联性。

这种字、词之间的关联性必须通过大量数据的分析和学习才能得到,因此数据对于大模型而言可以说是最重要的元素,预训练数据的质量、多样性、规模、代表性以及公平性和偏见等因素对模型性能有着决定性影响。

baichuan-7B模型在数据方面作了以下处理:

  • 数据规模和多样性:baichuan-7B的原始数据包括开源的中英文数据和自行抓取的中文互联网数据,以及部分高质量知识性数据。这种构建方式使其原始数据集包含了大量source的数据,在过滤后也能有1.2T的量级,同时也保证了数据的多样性。

  • 数据的公平性和偏见:为避免模型输出有害性内容,提升模型效果,baichuan-7B通过人工规则等方式过滤脏数据,去掉了数据中的噪声和有害数据。

  • 数据质量和代表性:经过低质过滤之后,baichuan-7B对得到的数据还进行了去重处理和有代表性数据的选取。具体表现为,基于启发式规则和质量模型打分,对原始数据集进行篇章和句子粒度的过滤;在全量数据上,利用局部敏感哈希方法,对篇章和句子粒度做滤重,从而减少数据中的重复pattern和不具备代表性的数据,进一步提升数据质量。

整体流程如下图所示:

1eb58bc2ceb331e684d3d1d0401274f7.png

此外,为了实现模型在多语言上的良好表现,得到高质量的数据集之后,baichuan-7B又采用了自动化的数据采样策略,最终确认了一个在下游任务上表现最好的中英文配比。

第二步,制定合理的分词策略

拥有了一个优质的数据集之后,需要思考的便是:

如何将数据集里面的语料充分利用起来?

目前大部分开源模型主要基于英文优化,因此对中文语料存在效率较低的问题,这也是一些国外的大模型在中文生成方面表现相比英文较差的原因。

baichuan-7B采用了SentencePiece中的Byte-Pair Encoding(BPE)作为分词算法,并且进行了以下的优化:

  • 首先,使用2000万条以中英为主的多语言语料训练分词模型,显著提升对于中文的压缩率。

  • 其次,在数学领域参考了LLaMA和Galactica中的方案,对数字的每一位单独分开,避免出现数字不一致的问题。

  • 再次,针对罕见字词(如特殊符号等),支持UTF-8 characters的byte编码,做到了未知字词的全覆盖。

对比不同分词器对语料的压缩率,可见其分词器明显优于LLaMA、Falcon等开源模型,在压缩率相当的情况下,训练和推理效率更高。

0a65984b14f2e3da6386b7b33d22f6e5.png

第三步,打造良好的模型结构

提到大模型,“大力出奇迹”是我们经常挂在嘴边的一句话,“力大砖飞”隐藏的含义是大模型并未在技术路线上取得革命性的突破,其底层技术基础依旧是Transformer。

换言之,当下的绝大部分大语言模型依旧是Transformer模型,只不过模型全部由Transformer的Decoder层构成,具体分为以下几个部分:

1、Position Embedding,即位置编码。

在Transformer中所有token都被同样的对待,没有前后顺序之分,因此需要加入一个Position Embedding用于表征词之间的位置关系。

目前的位置编码有绝对位置编码相对位置编码两种形式:

绝对位置编码指的是直接将位置信息通过向量的形式融合到模型输入中。

常用的两种绝对位置编码方法主要是在Transformers中使用的Sinusoidal Positional Encoding以及Convolutional Sequence-to-Sequence模型中使用的Learned Position Embeddings。

其中,Sinusoidal Positional Encoding在原始的Transformer模型(Vaswani等人,2017)中,引入了一种预定义的正弦函数作为位置编码。这种方法会为每个位置生成一个固定向量,该向量的维度跟词嵌入向量相同。

其优点在于,它可以处理任意长度的序列,不需要额外的学习过程,并且对于相对位置关系有一定的编码能力。

Learned Position Embeddings由Gehring等人于2017年在Convolutional Sequence-to-Sequence模型中首次提出。

对于每个位置,模型都有一个对应的嵌入向量,这个向量会在模型训练的过程中学习和优化。

该方法的优点在于,它可以根据具体的任务和数据集学习位置信息。然而,它的一大缺点是,由于位置嵌入数量固定,因此模型可能无法处理超过预先设定数量位置的序列。

相对位置编码指的是在自注意力机制中引入两个Token的相对位置信息。

目前,相对位置编码主要有两种常用方法:ROPE(Rotary Positional Embedding)和ALiBi(Attention with Linear Biases)。

ROPE可以不受固定长度限制处理任意长度的序列。其工作原理是,通过一个基于位置的旋转矩阵将每个位置的嵌入旋转到一个新的位置。

这种方法的优点是,可以保持相对位置信息的一致性,在旋转后,相邻的位置仍然会有相似的嵌入。

ALiBi能够让Transformer语言模型在推理时可以处理比训练时更长的序列。

它在处理文本序列时不使用实际的位置嵌入,而是在计算某个键和查询之间的注意力时,根据键和查询之间的距离对查询可以分配给键的注意力值进行惩罚。当键和查询靠近时,惩罚非常低,当它们远离时,惩罚非常高。

这种方法的动机是,靠近的词比远离的词更重要。

2、Attention Layer,即注意力层。

其原理是通过加入注意力层使得不同Token之间能够交互信息,进而获得整句话的表征。

目前大模型使用的Attention Layer分为多头自注意力(Multi-Head Self-Attention)和稀疏自注意力(Sparse Self-Attention)两种。

Multi-Head Self-Attention机制最早出现在”Attention is All You Need”(Vaswani et al., 2017)论文中,是Transformer模型的核心组成部分。

在多头自注意力中,模型首先将输入的嵌入向量分割成多个“头”,每个头都会独立地进行自注意力计算,最后所有头的输出会被连接起来并通过一个线性变换,形成最终的输出。

其优点是,每个头都可以学习并关注输入的不同方面,模型能够同时关注来自不同位置的信息,从而捕获更丰富的上下文信息。

Sparse Self-Attention是一种改进的自注意力机制,它只关注输入中的一部分元素。

这种方法的优点是,可以显著减少计算复杂性,使得模型能够处理更长的序列。

3、FFN Layer,即前馈神经网络。

其主要任务是处理来自Attention层的信息。

Attention机制能够处理词语之间的相互关系,但是它无法进行更为复杂的、非线性的数据处理。

而FFN层可以在每个Transformer模块中增加非线性处理能力,增强模型的整体表达能力。

在原始的Transformer模型中,FFN层通常由两个线性变换和一个非线性激活函数(如ReLU或GELU)组成。

以下是一些FFN层的变种:

  • 标准的FFN层:在”Attention is All You Need”(Vaswani et al., 2017)中,FFN层由两个线性变换和一个非线性激活函数组成。具体来说,给定输入x,FFN层的计算过程为:FFN(x) = max(0, xW1)W2,其中W1,b1,W2,b2是模型参数,max(0, *)表示ReLU激活函数。

  • Gated Linear Units(GLU)变种:在”Language Modeling with Gated Convolutional Networks”(Dauphin et al., 2017)中提出,GLU是一种特殊的激活函数,它通过引入一个门控机制来控制信息的流动。在FFN层中使用GLU可以帮助模型更好地捕捉输入数据的复杂模式。GLU的计算公式为:GLU(x) = (xV + c) ⊗ sigmoid(xW + b),其中⊗表示元素级别的乘法,sigmoid是sigmoid激活函数。

  • Swish变种:在“Searching for Activation Functions”(Ramachandran et al., 2017)中提出,Swish是一种自门控的激活函数,它的计算公式为:Swish(x) = Swish1(xW1)W2。在FFN层中使用Swish可以帮助模型更好地捕捉输入数据的复杂模式。

  • SwiGLU变种:在GLU Variants Improve Transformer中,作者提出了一种新的激活函数SwiGLU,它结合了Swish和GLU的优点。SwiGLU的计算公式为:SwiGLU(x) = (xV + c) ⊗ Swish1(xW + b),其中⊗表示元素级别的乘法,sigmoid是sigmoid激活函数。

baichuan-7B的模型结构同样基于Transformer

在模型研发过程中,为了能够让模型在4096的窗口长度内拥有最好效果,同时在4096长度外也具备较好的外推性能,baichuan-7B采取了和LLaMA相同的结构设计,而这些关键要素上的设计也和很多其他模型选择的设计相类似。

社区中Saleforces所提出的XGen-7B和由Berkeley所提出的OpenLLaMA也是同样的选择,具体而言:

  • Position Embedding采用ROPE相对位置编码,相对编码能够让模型获得较好的外推能力。Meta的LLaMA、Google的PaLM、清华团队的ChatGLM2都使用了ROPE相对位置编码。

  • Attention Layer采用标准的Multi-Head Self-Attention,虽然目前很多稀疏自注意力层能够在超长文本中获得较好的效果,但是这些方案由于使用了稀疏计算,对于4096长度内的效果会有一定的牺牲,使用标准的Multi-Head Self-Attention能够让大部分结果拥有更好的效果。

  • FFN Layer采用SwiGLU,目前大部分SOTA模型都选择使用SwiGLU作为FFN层,如2022年Google提出的PaLM模型,2023年META提出的LLaMA,最近清华团队发布的ChatGLM2等。

第四步,采用恰当的优化训练策略

训练策略也是模型取得较好结果的重要组成部分。

例如,初代GPT-3在当时的训练框架下,基于V100训练1750亿参数模型的整体机器利用率大概只有21.3%。这种极低的利用率会拉长模型训练周期,影响模型迭代进度。

为更好提升模型训练过程中的机器利用率,baichuan-7B针对训练策略也提出了很多优化手段,具体包括:

首先,优化了算子技术,通过应用更有效率的算子提高运算效率,例如Flash-Attention和NVIDIA apex的RMSNorm,优化后的Attention方法在非近似的基础上可以显著降低模型的显存消耗。

其次,baichuan-7B利用算子切分技术,对部分计算算子进行切分,这样在通信的时候会以更高效的nccl操作进行通信,同时降低内存峰值使用,以进一步提升处理速度。

同时,baichuan-7B还使用了混合精度技术,在不牺牲模型准确性的前提下,加速了计算过程。

此外,为了进一步提高效率,baichuan-7B还采用了通信优化技术,具体包括:利用拓扑感知的集合通信算法避免网络拥堵问题,提高通信效率;根据卡数自适应设置bucket size,提高带宽利用率;根据模型和集群环境,调优通信原语的触发时机,从而实现计算和通信的有效重叠。

最后,baichuan-7B还自研了一种名为训练容灾的技术。

训练大模型,需要的时间通常很长,很难保证GPU在训练过程中不出问题,特别是集群训练的时候,单卡硬件或者网络错误会导致整个集群停摆。因此在训练中断后快速、自动化定位故障、恢复服务非常重要。

通过训练平台和训练框架的联合优化以及IaaS+PaaS的应用,baichuan-7B实现了分钟级的故障定位和任务恢复,从而保证了训练的稳定性和效率。

第五步,选择合适的模型评价方法

完成数据集构建,对数据集中的语料进行分词并在构建好的模型中进行预训练之后,为了解模型的各方面能力,还需要对模型进行测试和评价。

不同于微调后的模型直接采用zero-shot(直接给prompt)的评估方式,预训练基座模型通常采取few-shot(给一些示例prompt)的评价方式来评估效果。

目前,比较权威的几个评估数据集主要有中文数据集C-Eval数据集、Gaokao、AGIEval,英文数据集MMLU,代码能力评估集Human Eval和数学能力评估集GSM8K、MATH等。

其中,C-Eval数据集是最全面的中文基础模型评测数据集,涵盖了52个学科和四个难度的级别;

Gaokao是以中国高考题作为评测大语言模型能力的数据集,用以评估模型的语言能力和逻辑推理能力;

AGIEval旨在评估模型在中文环境下,认知和解决问题等相关的任务的能力;

MMLU是一个包含57个多选任务的英文评测数据集,涵盖了初等数学、美国历史、计算机科学、法律等,难度覆盖高中水平到专家水平,是目前主流的LLM评测数据集。

中文评测方面,baichuan-7B在C-Eval、Gaokao和AGIEval的综合评估中均获得了优异成绩,不仅远超其他同规模参数的大模型,甚至比某些参数规模更大的模型还要出色。

1f7c31e9203704a4bb7a53cd37434716.png

在英文能力上,选择MMLU数据集进行评测,baichuan-7b的表现在同尺寸上也大幅领先。

5b65d78c854605538faeb9e1206bd3f7.png

值得一提的是,根据官方的github开源协议说明上,baichuan-7B开源的推理代码采用了Apache2.0协议。

不同于其他基于LLaMA继续训练(比如IDEA的ziya、链家的BELLE等)无法商用的模型,baichuan-7是原生训练的模型,可以自主定义模型权重的开源协议。

值得称赞的是百川智能采用的是免费可商用协议,比其他需要付费商用有更大的自由度,开发者们可以直接使用预训练模型进行各种实验研究,并完成部署和应用。

开源VS闭源,哪一种模式最有效?

说完了大模型的训练步骤,最后来谈一谈开源的问题。

五月初,谷歌曾泄露出一份内部文件,这份文件声称:“我们没有护城河,OpenAI也没有。当我们还在争吵时,开源第三方已经悄悄地抢了我们的饭碗”。

谷歌显然已经意识到了开源的影响,那么开源和闭源究竟哪一种模式更有效?

百川智能给出了他们的回答:

众所周知大模型的训练成本极高,因此以闭源保证商业投入是比较有效的方式。

不过,开源创新早就已经成为了软件发展乃至于IT技术发展的一种主流技术形态,超级计算机的操作系统几乎都是用Linux这样的开源软件操作系统进行构建,智能手机的操作系统80%以上都由开源的安卓系统支持。

在大模型出现之前,深度神经网络的学习框架也几乎都是开源的。

虽然目前OpenAI和谷歌都选择了“闭门造车”,但是Meta却走上了开源的道路,LLaMA开源之后迅速地吸引了大量开发者,这和互联网时代Linux,移动互联网时代的安卓十分相似。

就像Linux和安卓都会在社区上开源出一个核心的版本,然后更多人在这个核心版本上根据他对需求和领域的理解进行不断地修改,低成本产生更多适应未来发展的新版本,由环境来评价,然后再迭代回来不断地开发。

这种众人拾柴的研发路径在大模型时代无疑还将发挥巨大作用,开源和闭源究竟哪一个更有效现在还很难说,就像我们无法说iOS要安卓更有效一样。

但是,未来的大模型生态一定会是垄断与开源并存。

关注公众号【机器学习与AI生成创作】,更多精彩等你来读

深入浅出stable diffusion:AI作画技术背后的潜在扩散模型论文解读

深入浅出ControlNet,一种可控生成的AIGC绘画生成算法! 

经典GAN不得不读:StyleGAN

f3ffe46e05c2f2aa6744e94d7f5f1a21.png 戳我,查看GAN的系列专辑~!

一杯奶茶,成为AIGC+CV视觉的前沿弄潮儿!

最新最全100篇汇总!生成扩散模型Diffusion Models

ECCV2022 | 生成对抗网络GAN部分论文汇总

CVPR 2022 | 25+方向、最新50篇GAN论文

 ICCV 2021 | 35个主题GAN论文汇总

超110篇!CVPR 2021最全GAN论文梳理

超100篇!CVPR 2020最全GAN论文梳理

拆解组新的GAN:解耦表征MixNMatch

StarGAN第2版:多域多样性图像生成

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 |《计算机视觉中的数学方法》分享

《基于深度学习的表面缺陷检测方法综述》

《零样本图像分类综述: 十年进展》

《基于深度神经网络的少样本学习综述》

《礼记·学记》有云:独学而无友,则孤陋而寡闻

点击一杯奶茶,成为AIGC+CV视觉的前沿弄潮儿!,加入 AI生成创作与计算机视觉 知识星球!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/48106.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

推荐两个AI神器:只需1个标题,2分钟全自动生成PPT

今天给大家分享两个工具,帮助你全自动生成PPT,接下来以自动化测试为主题,教大家如何2分钟生成好PPT。 1、第一个工具:ChatGPT 1、打开ChatGPT页面,输入prompt,告诉它,让它帮你生成一份自动化…

chatgpt赋能python:Python爬虫装备全攻略——怎么装爬虫?

Python爬虫装备全攻略——怎么装爬虫? 在当今数字化时代,网络上有大量的数据和信息需要被爬出来应用。Python作为一种计算机编程语言,已被广泛应用于网络爬虫的编写和数据分析。接下来,我们将介绍如何安装python爬虫的必备库来满足这么编写…

chatgpt赋能python:Python扩展库导入全攻略

Python扩展库导入全攻略 Python是广受欢迎的编程语言之一,具有简单易学、开发效率高、语法简洁等特点。但是在实际开发中,我们很难凭借它的内置模块就能够完美的处理所有需求。这时候,Python强大的扩展库就派上用场了。在本文中,…

chatgpt赋能python:Python打字母全攻略

Python打字母全攻略 Python是一种广泛使用的编程语言,尤其在数据科学和人工智能方面表现不俗。但是对于刚学习Python的编程爱好者来说,打字母好像是一道坎儿。本文将介绍Python打字母的基本方法,并提供一些实用的技巧和工具,帮助…

chatgpt赋能python:Python运行桌面文件全攻略

Python运行桌面文件全攻略 Python是一门广泛应用于Web开发、机器学习、数据科学等领域的高级编程语言,但其实 Python 还可以用于桌面应用程序的开发。Python提供了几种不同的桌面应用程序开发框架,例如PyQt、Tkinter和wxPython等。在本文中,…

SuperMap iObjects Docker打包全攻略

SuperMap iObjects Docker打包全攻略 文章目录 SuperMap iObjects Docker打包全攻略说明开始打包iObjects容器启动容器参考 说明 此教程编写时使用的iObjects版本为 10.2.1 ,理论高版本同样支持,具体自测。基础镜像为 Docker 官方 ubuntu:16.04完整版。…

裁判文书网2019年9月份最新爬虫

文书网在9月份终于更新了,上去看了一下,无比的流畅。秉持着一颗探索,天真的童心看看文书网这次更新有啥突破和进展,一言不合直接打开开发者工具,仔细寻找了一番,看到了一个可疑的连接,定睛一看&…

钉钉作弊软件开发者,被判 5 年半,为什么提供「虚拟定位」会被判这么久?...

上面这个公号「涩郎」,是我的一个备用号,为了防止万一哪天大号失联,平时一周我也会发三篇左右的我的思考,读书笔记,认知感悟等文章,带领大家一起探索精神与财务自由之路。 大家好,我是校长。 最…

文书档案整理过程图文讲解

什么是文书档案: 机关、团体、企业事业单位在党务和行政事务管理活动中直接形成的,由命令、指示、决定、通告、公告、请示、报告、批复、通知、函、会议记录、简报、计划和总结等通用文书转化而来的档案。 文书档案整理有两种方法: 以件为…

工程师和码农

其实这篇是我昨天写好的,和我昨天写的那篇《啥叫工程?啥叫工程师?》是一体的,但是内容又庞杂,所以就分成了两篇文章。 (1)前导故事1 我曾经开发过一个核心模块,受好多人关联依赖调用…

当我开始用ChatGPT帮我准备面试题…

转眼间,北美的“金三银四”已经快结束了,可是各大厂裁员的消息仍是此起彼伏。即使有HC,也不敢冒然申请,害怕还没准备好,面试搞砸了怎么办…… 那如果借助“外挂”来面试,会怎么样?没错&#xf…

阿里版GPT官宣“阿里全家桶”:所有产品都将接入

“阿里版GPT”——通义千问邀测才几天, 在本周的2023阿里云峰会现场,CEO张勇就宣布: 阿里巴巴所有产品未来都将接入“通义千问”大模型,进行全面改造。 与此同时,通义千问的能力也将通过API对外开放,帮助每家企业打…

从华为云计算岗跳槽到银行科技岗,好难!

点击上方“芋道源码”,选择“设为星标” 管她前浪,还是后浪? 能浪的浪,才是好浪! 每天 10:33 更新文章,每天掉亿点点头发... 源码精品专栏 原创 | Java 2021 超神之路,很肝~中文详细注释的开源…

AIGC人才趋势洞察: AIGC时代属于跨界复合型人才,⼈才和创新机制是成功的关键

目录 一、行业背景 (一)从Chat GPT到AIGC:ChatGPT现象级出圈,AIGC关注度爆发性增⻓ (二)AIGC定义:广义与狭义 (三)AIGC应用图谱 二、AIGC招聘需求 &am…

没背景、没学历?专科程序员进入互联网大厂是不是真的没希望?

最近知乎上的一个帖子引起了大众的热议。 疫情结束后,不少大厂又开始了新一轮的招人模式,虽然其中各个方面的要求有所不同,但其中一个招聘要求却出奇的一致——“本科及以上学历。” 互联网用七个字,筑起了一座座学历高墙。 对于…

从华为跳槽到银行科技岗,好难!

今年我们团队在西安的招聘名额比较多,我作为团队的招聘组长,筛选了一波又一波的候选人。 西安是一个有实力的城市,名校云集,985/211 院校很多,包括西安交大、长安大学、西北工业大学、西安电子科技大学、西北大学、西…

学术风波不断,英国24所大学为何改变态度?

近期,一项备受关注的议题引发了英国教育界的热议:是否允许学生在学业中使用生成式人工智能工具ChatGPT?经过一系列的争论和讨论,英国罗素集团的24所顶尖大学最终达成了共识,并发布了关于人工智能使用的原则&#xff0c…

《弥合鸿沟——2023校园招聘调研报告备战攻略》重磅发布!一文速览10大关键发现

校招是企业抢人的主擂台,也是学生上岸的摆渡船。从象牙塔到写字楼,学生们想通过校招完成身份的蜕变,而从写字楼到象牙塔,企业也希冀通过校招引入年轻人才,寻觅那些可助力组织持续发展的新动力。 但在企业和学生之间似乎…

深度学习应用于脑电信号处理

获取了数据还要读懂数据,周期,时间,采样频率,通道等等信息,可以通过说明文档,一般数据都会有。或者用matlab打开数据集来获取。 一、脑电信号数据 开源数据集,注意数据的格式,我用…

脉冲神经网络 神经元模型-HH模型(1)

脉冲神经网络 神经元模型-HH模型 Hodgkin Huxley 神经元模型及实现一 原理1. 电路图2. 常微分方程 二 代码实现-python版本1. 模拟离子通道2. 模拟膜电位 三 代码实现-matlab版本四 参考 Hodgkin Huxley 神经元模型及实现 最近在接触脉冲神经网络相关知识,如有错误…