五一节前吹的牛,五一期间没完成,今天忙里偷闲,给完成了。
那就是初步拟定了一个《Transformer最后一公里》的写作大纲。
之前一直想写一系列Transformer架构的算法解析文章,但因为一直在忙(虽然不知道在忙啥),总是被耽搁。
今天终于算是启动了。
巧的是,下班路上刚手敲完大纲,晚上一个小伙伴来咨询学习LLM的事情,问我之前写的《AI视觉入门专栏》是否适合LLM的入门。
我就顺便给这位小伙伴安利了一下正在做的这个专栏,虽然还未开始写。
这个专栏是什么?
Transformer架构相比很多小伙伴都不陌生了,说它是目前最火的AI模型架构也不为过。
现在很多主流的大语言模型,比如chatGPT都是基于该架构进行的模型设计,可以说Transformer顶起了AI的半壁江山。
本专栏主要是拆解Transformer架构的算法原理。
我会尽可能用通俗的大白话来讲清楚该架构的各种细节。
你可能在很多地方都看过该架构相关的算法解析文章,什么注意力机制啦、QKV矩阵啦等等。
对于这些有些枯燥的概念,有些乏味的数学表达,我会尽可能说的直白和通俗易懂,打通理解Transformer的最后一公里。
当然,为了说清楚其中的一些概念,我会在相关知识点处穿插大量的背景知识介绍。
本专栏也会介绍一些chatGPT模型用到的技术点。
相信本专栏能帮你彻底搞懂Transformer这个变形金刚。
如何阅读相关文章
有两种阅读渠道可以阅读到本专栏的文章:
第一,在我的公众号《董董灿是个攻城狮》进行阅读。
我会在本公众号进行文章的首发,相关文章会添加标签“Transformer专栏”,可点击文章左下角的标签查看所有文章。
但是公众号发文有个缺点:文章一旦发送完成,便无法进行修改(只能改20字),有些文章写完,一旦有逻辑漏洞或错误,也就只能错在那里了。
所以,还有——
第二个阅读渠道:在小报童进行阅读。
之前我发布的CV入门专栏就是在小报童发布的。这个平台可以随时修改文章,也可以随时留言,我个人的使用体验也是比较好的。
小报童文章如何阅读?
小报童的文章有质量保证,并且会持续维护和更新。
可扫描下方二维码进入小报童查看详情:
---