【原创】理解ChatGPT之机器学习入门

想要连贯学习本内容请阅读之前文章:

【原创】AIGC之 ChatGPT 高级使用技巧

【原创】AIGC之主流产品介绍

AIGC是什么

AIGC - AI Generated Content (AI生成内容),对应我们的过去的主要是 UGC(User Generated Content)和 PGC(Professional user Generated Content)。

AIGC就是说所有输出内容是通过AI机器人来生成产出相关内容,主要区别是过去主要是普通用户和某一领域专业用户(人)生产内容,AIGC主要是依赖于人工智能(非人类)生成内容,这个就是AIGC的核心意思。

(版权认定:UGC和PGC是有版权概念的,版权归属于负责生成内容的人,AIGC目前美国法规认为是没有版权概念的,就是内容不属于调用的人,也不属于这个AI机器,所以没有版权归属这件事。)

AIGC可以生成什么内容

目前AIGC主要可以生成文本内容和图片内容(目前视频生成有一些产品,但是没有文本和图片生成这么成熟),所以我们主要集中在文本和图片的AIGC的介绍。

AIGC在文本内容方面,主要可以通过 Q&A (提问回答)得形式进行互动,能够按照人类想要的“提问”生产输出符合人类预期的内容。

一般我们可以把AI当做一个全知全能的“高级人类”,以“文本AIGC”来抡,你可以向它提出问题(Prompt),然后它做出相应回答。所有提问和回答都可以涉及到方方面面,包括不限于 百科知识/创意文案/小说剧本/代码编程/翻译转换/论文编写/教育教学/指导建议/聊天陪伴 等等等等场景不一而足,场景都需要你去想,可以理解它是一个拥有全地球知识的“百晓生”,什么都可以问它或者跟它交流。

比如我们用大名鼎鼎的 ChatGPT 来进行提问:

对于“图片AIGC”来说,你可能脑子里有无数创意,但是自己不会绘画,无法把脑子里的Idea变成实实在在的图片,那么,“图片AIGC”能够帮助你按照你脑子想要的东西,你告诉它,然后它能够帮助你通过图片绘画的形式给你画出来,让你一下子把自己的“创意”变成了图片现实。

比如我们用非常好用的“图片AIGC” 工具 Midjourney 来画画:

AIGC基本工作原理

AIGC底层主要依赖的是AI技术,AI技术本质主要是让机器拥有像人类一样的智能(Artificial Intelligence),所以就需要让机器能够像人类一些学习和思考,所以目前大部分实现AI的底层技术叫做“机器学习”(Machine Learnin)技术。

机器学习技术主要有很多应用场景,比如现在非常常用的包括 人脸识别(手机解锁/支付宝支付/门禁解锁等)、语音识别(小爱同学/小度/Siri)、美颜换脸(主播美颜/美颜相机)、地图导航、气象预测、搜索引擎、NLP(自然语言处理)、自动驾驶、机器人控制、AIGC 等等。

机器如何进行学习

机器学习可以简单理解为是模拟人类学习的过程,我们来看一下机器是如何模拟人类学习的。

我们再看看所谓的“机器学习”:

对于人类学习来说,我们看到的事物和遇到的事物就是我们的“资料”(语料),然后我们通过“学习总结归纳”(学习算法),最后变成了“知识经验智慧”(模型),然后遇到事情的时候我们就会调用这些“知识经验方法论”做出相应的反应决策动作(预测推理);

对于机器学习来说,给它输入大量的“语料”(看到遇到的事物),然后通过机器学习算法(总结归纳抽取相似点),最后形成了“模型”(知识经验方法论),然后再遇到一些需要判断决策的时候,我们就会把要判断决策的事物给“模型”,然后就会告诉我们输出结果(推理推测结果);

从抽象层来说,我们会发现,本质来说,“人类学习”和“机器学习”内在本质是比较像的。

我们来看一个计算机里概要的机器学习的过程:

里面核心步骤就是:“训练数据 ➜ 训练算法 ➜ 模型 ➜ 预测 ➜ 输出结果”,其中最终产出物是“模型”(Model,模型文件),然后主要是前置的“训练模型”和后置的“模型预测”,然后产生对应结果。

上面这个过程我们可以简单理解为:“模型”就是一只小狗,饲养员就是那个“训练算法”,饲养员在场下对那个小狗通过一些指令和奖惩措施进行反复训练(训练算法),小狗就会学会一些技能(模型),一旦学会了,小狗就可以出去表演,表演的过程就是预测。

所以我们会看到,里面如果“模型”中的特征(知识经验)越多,最终在“预测”阶段就越准确,如果模型越小,或者中间的特征数据越少,可能最终预测结果准确率会降低。(类似一个人遇到的事情越多,总结的经验就越多,俗话说的“人生没有白走的路没有白踩的坑” 大概就是这个逻辑)

机器学习的发展

机器学习技术主要经历了从兴起到深度学习三个大技术时代,第一个是兴起时代,然后是传统的机器学习时代,最后是基于神经网络的深度学习时代,以下简单按照我个人理解做了一个发展阶段分类。

兴起阶段:1943年诞生了感知机模型(MCP),一位心理学家和一位数理逻辑学家 提出了人工神经网络的概念和人工神经元的数学模型,算开创了人工神经网络得研究时代。然后从60年代到80年代之间,有了机器学习概念和模式识别等,属于整个研究的兴起探索阶段,这个阶段各种方向的探索都在进行,百花齐放。

第一阶段:传统机器学习(Machine Learnin),从1980年召开第一届技术学习研讨会开始,虽然同步也有神经网络得研究,但是可以简单理解为大行其道的主要是基于数学和统计分析为主的方式得机器学习,特别是在1990年到2001年之间,从理论到实践都经过了很大的发展。这个时间段一直到2006年,在信息行业主要流行的传统机器学习包括 传统隐马尔可夫模型(HMM)、条件随机场(CRFs)、最大熵模型(MaxEnt)、Bboosting、支持向量机(SVM)、贝叶斯(Bayes)等等,具体实践中落地包括 线性回归、逻辑回归、SVM、决策树、随机森林、朴素贝叶斯 等等落地的算法。这些算法的因果逻辑和中间计算过程都是清晰明确的,基本是清晰可信的,不足就是最终效果有上限,可能最终“智能”效果有时候就不够。

第二阶段 V1:“深度学习”(Deep Learnin),2006年机器学习教父级人物Hinton发表了深层神经网络的论文正式开启了基于神经网络得“深度学习”的阶段,可以简单认为“深度学习”是传统机器学习的另外一条路线,它主要区别是在“学习策略”方面的路线不同,传统机器学习主要是依赖于“数学统计分析”为主的方法,过程结果可推导;深度学习主要是也依赖于让计算机模拟人脑一样神经网络连接一样的方式进行运算。

第二阶段 V2:Transformer 模型(Transformer model),2015年提出了Attention机制,2017年Google发表了论文《Attention Is All You Need》在此基础之上提出了Transformer架构,它基于encoder-decoder架构,抛弃了传统的RNN、CNN模型,仅由Attention机制(注意力机制)实现,并且由于encoder端是并行计算的,训练时间大大缩短。Transformer模型广泛应用于NLP领域,机器翻译、文本摘要、问答系统等等,最近几年比较主流的Bert和GPT模型就是基于Transformer模型构建的。

我们看一下深度学习基本的发展历史:

机器学习和深度学习的区别

常规的机器学习一般我们会叫做“传统机器学习”或者是“浅层机器学习”,主要是为了对应“深度学习”这个概念。深度学习与传统机器学习不太一样,所以它主要是用来定义不同网络框架参数层的神经网络,所以主有很多神经网络结构,包括 无监督预训练网络(Unsupervised Pre-trained Networks)、卷积神经网络(Convolutional Neural Networks)、循环神经网络(Recurrent Neural Networks)、递归神经网络 (Recursive Neural Networks)等等;

神经网络叫做“深度学习”主要是看里面所谓神经网络的层数,1-2层叫做浅层神经网络,超过5层叫做深层神经网络,又叫做深度学习”。

其中,应用比较多的主要 卷积网络(CNN - Convolutional Neural Networks)、循环神经网络(RNN - Recurrent Neural Networks)+递归神经网络(RNN - Recursive Neural Networks)、长短期记忆RNN(LSTM - Long short-term memory) 和为了解决 LSTM/RNN 中的一些问题的解决办法加入Attention机制的Transformer框架。

深度学习在计算机视觉(CV、如图像识别)、自然语言处理(NLP)、自动驾驶、机器人控制 等方面比传统机器学习效果更好。

在训练数据规模比较小的情况下,传统机器学习型算法表现还可以,但是数据增加了,传统机器学习效果没有增加,会有一个临界点;但是对于深度学习来说,数据越多,效果越好。所以也是越来越逐步“深度学习”取代“传统机器学习”的过程了。

传统机器学习和深度学习的效果性能对比图:

传统机器学习和深度学习的处理过程区别:(传统机器学习特征是清晰的,深度学习内部特征是黑盒)

深度学习中使用的神经网络,大概的工作机制是模拟人类的脑子工作机制,比如我们通过眼睛看到一个物体的过程:

我们再看看基于神经网络得“深度学习” 进行学习的过程:

从上面神经网络工作过程我们可以看出,基于神经网络的“深度学习”整个过程基本跟传统机器学习是完全不同的。

还有一个区别就是传统机器学习在训练的时候,基本可以使用传统CPU运算就可以了,但是在深度学习方面,因为神经网络层数多,计算量大,一般都需要使用 GPU或AI计算芯片(AI卡)进行运算才行,这个也就是我们常说的“算力”。

深度学习在大规模数据计算方面算力消耗成本惊人,以ChatGPT为例,传闻大概运算花费了英伟达(NVIDIA)的A100型号GPU一万张,目前京东A100的卡销售价格大约为人民币10万元,ChatGPT大概训练算力成本粗略预估为10亿人民币,对于ChatGPT公布的数据来看,一次大模型的训练大约需要1200万美元,所以除了比拼算法,算力更是很重要的决定性因素。

神经网络的分类

基于上面深度学习的逻辑,我们宏观看一下深度学习的神经网络包括哪些:

深度学习我们可以理解为:分类方式主要是基于“机器学习策略”是“神经网络”的策略,“学习方式”主要是 监督学习、无监督学习(也可能包含强化学习)等不同场景结合产生的“机器学习”方式叫做“深度学习”。

本文概要学习了AIGC和机器学习的基本概念,有个基本认识了解,方便其他依赖于机器学习和深度学习的人工智能(AI)的各种应用和原理的理解。

取代你的不是AI,而是比你更了解AI和更会使用AI的人!

##End##

想关注更多技术信息,可以关注"黑夜路人技术” 公众号

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/11928.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

小狐狸ChatGPT付费创作系统1.8.6独立版 + H5端 + 小程序最新前端 安装升级教程

小狐狸GPT付费体验系统最新版系统是一款基于ThinkPHP框架开发的AI问答小程序,是基于国外很火的ChatGPT进行开发的Ai智能问答小程序。播播资源网整体测试下来非常完美,可以说小狐狸GPT目前国内最好的一款的ChatGPT对接OpenAI 软件系统。 --------------…

小狐狸ChatGPT付费创作系统1.92独立版 + H5端 + 小程序前端+新增AI绘画功能 系统源码体验安装教程

小狐狸GPT付费体验系统最新版系统是一款基于ThinkPHP框架开发的AI问答小程序,是基于国外很火的ChatGPT进行开发的Ai智能问答小程序。播播资源网针对源码整体测试下来非常完美,可以说小狐狸GPT目前国内最好的一款的ChatGPT对接OpenAI 软件系统。 ------…

离职腾讯,总得说点什么吧

(永久免费,扫码加入) 转自:公子龙 大家好,我是菜哥! 程序员是一个流动性很大的职业,经常会有新面孔的到来,也经常会有老面孔的离开,有主动离开的,也有被动离职…

科技云报道:大模型时代,SaaS元年才真的到来了?

科技云报道原创。 ChatGPT席卷全球后,如果有人问AI大模型影响最大的会是哪个行业?SaaS领域肯定是不二之选。 目前全球各大科技公司已宣称要用大模型触及、整合所有产品。 其中,微软率先为其办公家族装配上了各类copilot,开发者…

通向AGI之路:大型语言模型(LLM)技术精要

原文:通向AGI之路:大型语言模型(LLM)技术精要|AGI|LLM|GPT|NLP|模型|技术|数据|-健康界 ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样&#…

后GPT 3.0时代,主流大模型技术精要详解,走向AGI之路的大门已开

转载自 | 机器之心 来源 | 知乎 作者 | 张俊林 洋洋洒洒近三万字,中国中文信息学会理事、中科院软件所博士、新浪微博机器学习团队新技术研发负责人的张俊林回顾了大型语言模型(LLM)的发展历程、技术迭代更新以及未来走向等方方面面的内容&…

通向 AGI 之路:大型语言模型(LLM)技术精要

来源:AI科技评论 作者:张俊林 本文经授权转载自知乎:https://zhuanlan.zhihu.com/p/597586623?utm_campaignshareopn&utm_mediumsocial&utm_oi37478916423680&utm_psn1595705313004679168&utm_sourcewechat_timeline&s_…

由ChatGPT反思大语言模型(LLM)的技术精要

人工智能与算法学习 作者:张俊林, 编辑:夕小瑶的卖萌屋 导读:ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对…

ChatGPT大模型用于刑侦破案只能是虚构故事吗?AI大模型企业服务趋势探讨(一)...

故事开始了。 一阵疼痛痉挛,脚下地面渐渐返潮,他知道又要下雨了。 刑警老周摸索着爬到台阶的高处,等待老城区电子工厂夜班的收工铃声。素来挡风的夹克挡不住湿冷刺骨的潮气。这股子潮气里还不时翻滚浓烈的腐败腥臭。 一阵嘈杂,路灯…

36k字长文讲述由ChatGPT反思大语言模型的技术精要

文|张俊林 源|知乎张俊林 导读:ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对LLM的认知及发展理念&#xff0c…

张俊林:万字长文讲述由ChatGPT反思大语言模型的技术精要

每天给你送来NLP技术干货! 作者:张俊林 新浪微博 新技术研发负责人 来源:知乎张俊林 排版:DataFunTalk 导读:ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model&am…

ChatGPT大模型用于刑侦破案只能是虚构故事吗?AI大模型企业服务趋势探讨(一)

故事开始了。 一阵疼痛痉挛,脚下地面渐渐返潮,他知道又要下雨了。 刑警老周摸索着爬到台阶的高处,等待老城区电子工厂夜班的收工铃声。素来挡风的夹克挡不住湿冷刺骨的潮气。这股子潮气里还不时翻滚浓烈的腐败腥臭。 一阵嘈杂,…

ChatGPT快速入门

1. :介绍ChatGPT的背景、目的、特点和优势,让读者对ChatGPT有一个初步的了解。 ChatGPT简介 ChatGPT是一种基于自然语言处理技术的智能对话系统,旨在为用户提供更加智能、便捷、高效的交流体验。ChatGPT的背景是人工智能技术的快速发展和智能…

通过阿里云函数计算解决ChatGPT API的调用问题

ChatGPT系列文章 与其被ChatGPT取代,不如征服ChatGPT,做它的主人! 文章目录 ChatGPT系列文章前言命令行部署准备工作 两行命令实现部署应用中心部署使用代理访问API总结 前言 自2022年11月30日 OpenAI 发布 ChatGPT 以来,虽然时有…

AI各种模型的聊天机器人的接入聊天平台(服务器和本地搭建)

探索ChatGPT,协助工作学习创作。公众号「阿杰与AI」回复AI,加入社群,一同探讨,一同成长,比他人更进一步。 我们一起维护一个完全免费开源知识库。 1.AI、OpenAI、MidJourney发展史2.ChatGPT们对今后社会生活的影响3.目…

开源一键拥有你自己的ChatGPT+Midjourney网页服务,用不用是另一回事,先收藏!

功能支持 原ChatGPT-Next-Web所有功能 midjourney imgine 想象 midjourney upscale 放大 midjourney variation 变幻 midjourney describe 识图 midjourney blend 混图 midjourney 垫图 绘图进度百分比、实时图像显示 自身支持midjourney-api 参数说明 MIDJOURNEY_PROXY_URL …

中科院基于gpt的学术优化网站搭建教程

我使用的python为3.10版本,编译器为pycharm,浏览器为火狐 我们进入github找到中科院提供的资源: https://github.com/binary-husky/chatgpt_academic 其中有关于ChatGPT学术优化的安装步骤,使用教程,我没有用Git下载&a…

快速使用ChatGpt Web Server

快速使用ChatGpt Web Server ChatGpt Web Server是使用Blazor Server模式部署的一个服务,所有的逻辑和代码执行都会在服务器执行,然后通过SignalR传输到前端渲染。通过这样模式,我们部署ChatGpt Web Server只需要新加坡服务器,不需…

一、海外服务器租赁方案及配置与登录

1、为什么要租赁海外服务器 ChatGPT是能听懂人话的人工智能,能够模拟人类的思考和表达,图灵测试对它来说是小儿科了。它的出现标志着人工智能技术在自然语言处理和智能对话系统领域的重大进展和突破,其历史意义,业界认为不亚于互联网和个人电脑的诞生。它虽然可以被全世…

宝塔反代教程502 Bad Gateway问题解决,实现服务器访问openai api

前言 宝塔反代教程502 Bad Gateway问题解决,实现服务器访问openai api 此方法最简单快捷,没有复杂步骤,不容易出错,即最简单,零代码、零部署的方法。 实现前准备 一台海外VPSOpenAI官方的3.5或者4.0 API_KEYChatGPT…