写给开发同学的 AI 强化学习入门指南

该篇文章是我学习过程的一些归纳总结,希望对大家有所帮助。

最近因为 AI 大火,搞的我也对 AI 突然也很感兴趣,于是开启了 AI 的学习之旅。其实我也没学过机器学习,对 AI 基本上一窍不通,但是好在身处在这个信息爆炸的时代,去网上随便一搜发现大把的学习资料。

像这个链接里面:https://github.com/ty4z2008/Qix/blob/master/dl.md 就有很多资料,但是这相当于大海捞针。在学习之前我们先明确自己的目的是什么,如题这篇文章是入门强化学习,那么就需要定义什么是入门。在很多强化学习里面,学习深度强化学习的第一个算法都是 DQN,这个算法也足够好学和实用,所以本篇文章就以搞懂它做为目标,表示入门。下面是我的学习计划:

如果和我一样一点基础也没有,并且概率论和线性代数的知识差不多都忘完了,那么可以去看一下相关课程学习一下,如果不关注公式啥的,这一步可以先忽略,大约周末一天时间就可以搞定;

然后如果对机器学习也一点基础都没有的话,可以先看吴恩达的课程,有个大致的理解,然后去看李宏毅的课程作为补充,如果单纯的想入门学习强化学习,那么只需要看前几节讲完神经网络那里就差不多了,这个视频课程估计要看 25 小时左右;

学完之后可以跟着《动手学深度学习 https://hrl.boyuai.com/ 》一起动手学习一下我们上面学到的概念,写写代码,如果只是入门的话看前五章就好了,本篇文章的很多资料也是整理自这本书,大约 10 小时左右;

接下来可以看看 B 站王树森的深度学习的课程,可以先看前几节学习一下强化学习的基础知识点,大约 5 小时左右;

到这个阶段估计还是懵的,需要去上手做点项目,那么可以看《动手学强化学习》这本书,已经开源了 https://hrl.boyuai.com/ ,只看到 DQN 的部分,大约十几小时。

概念

对于新学习一个基础的内容,我们先从概念入手。

强化学习能做什么

强化学习(Reinforcement Learning,RL)是机器学习领域的一个重要分支,它关注智能体如何通过与环境的交互来学习和优化策略,以实现长期回报的最大化。强化学习已经在许多领域取得了显著的成功,以下是一些主要的应用场景:

游戏:强化学习在游戏领域取得了很多突破性的成果,如 DeepMind 的 AlphaGo 在围棋比赛中战胜世界冠军,以及 OpenAI 的 Dota 2 AI 在电子竞技比赛中战胜职业选手。这些成功表明,强化学习能够帮助智能体学习复杂的策略和行为,甚至超越人类的表现。

机器人学:强化学习在机器人学领域有广泛的应用,如机器人控制、导航和自主学习。通过强化学习,机器人可以学会在复杂的环境中自主执行任务,如搬运物品、避障导航、飞行控制等。

自动驾驶:强化学习可以用于自动驾驶汽车的控制和决策。通过与环境的交互,自动驾驶汽车可以学会在复杂的道路环境中保持安全驾驶,规避障碍物,遵守交通规则等。

推荐系统:强化学习可以用于个性化推荐系统,通过学习用户的行为和喜好,智能地推荐合适的内容。例如,网站可以使用强化学习算法来优化新闻、广告或产品推荐,从而提高用户的满意度和留存率。

自然语言处理:强化学习在自然语言处理领域也有广泛的应用,如对话系统、机器翻译、文本摘要等。通过强化学习,模型可以学会生成更符合人类语言习惯的文本,提高语言理解和生成的质量。

资源管理:强化学习可以用于优化资源管理问题,如数据中心的能源管理、通信网络的流量调度等。通过学习和优化策略,强化学习可以实现资源的高效利用,降低成本,提高性能。

金融:强化学习在金融领域也有一定的应用,如股票交易、投资组合优化等。通过强化学习,智能体可以学会根据市场变化调整投资策略,从而实现收益的最大化。

以上是 chatgpt 告诉我的强化学习应用,其实就个人来说,强化学习最多的应用领域还是打游戏,B 站上面有很多利用强化学习实现各种风骚操作打游戏的训练视频还是蛮有意思的,比如:

https://www.bilibili.com/video/BV1Dg4y137Cq 强化学习玩只狼;

https://www.bilibili.com/video/BV1nD4y1j7QL 强化学习玩空洞骑士;

反正看到上面这些我是觉得酷毙了(绝对不是因为我玩的菜)。所以简单的说,强化学习(Reinforcement learning,RL)是一类机器学习算法,用于描述和解决有智能体(agent)和环境(environment)交互的问题。在强化学习中,智能体通过与环境不断交互、观察环境和执行动作来学习最优策略,以达到最大化某种累积奖励的目标。

强化学习三个要素

具体来说,强化学习通常涉及以下三个要素:

状态(State):描述智能体所处的环境状态。

动作(Action):智能体可以采取的动作。

奖励(Reward):智能体根据执行动作和观察结果获得的奖励。

强化学习的核心思想是基于试错学习,即智能体通过尝试不同的动作并观察结果来逐步调整自己的行为策略,以取得更高的奖励。通常,强化学习算法会利用回报(reward)或价值函数(value)来评估一种行为策略的好坏,并在学习过程中不断更新和调整该策略,以达到最大化累积奖励的目标。

构造只有动作和奖励的环境

对于我们来说,一开始直接从三个要素开始进行可能会比较困难,那么我们可以从一个简单的环境入手,这个环境只有动作和奖励,是多臂老虎机(multi-armed bandit,MAB)问题。

大家应该或多或少都接触过老虎机,我们这里假设这些老虎机是一个纯粹的老虎机,每次出奖的概率和拉动拉杆的次数没有关系,并且有 K 台老虎机,每台老虎机的奖励概率都不一样,每次拉动其中一根拉杆,就可以从该拉杆对应的奖励概率分布中获得一个奖励 r。

每次选择一个老虎机,然后去拉动它对应就是一个动作 a,那么对应的在拉动了无数个这样的机器之后就可以得到这些老虎机的奖励期望,记为

,那么在这些拉杆中,至少存在一根拉杆,它的期望奖励不小于拉动其他任意一根拉杆,我们将该最优期望奖励表示为

由于我们拉动的拉杆不是每次都是最优的那个,所以存在拉动当前拉杆的动作与最优拉杆的期望奖励差,即

,也称为悔恨度(regret)。我们把操作 T 次之后的期望奖励差加总和就是

,多臂老虎机问题的目标为最大化累积奖励,等价于最小化

为了实现最大化累积奖励,那么我们就需要计算出老虎机的奖励期望,那么如何在不知道中奖概率的情况下计算出老虎机的期望呢?我们有两种方式

一种是收集足够的游戏数据,每种奖励的中奖次数除以总游戏次数,即可得到该奖励的估算概率,然后乘以奖励金额计算每个奖励的期望即可;

另一种是累计更新期望进行增量式的期望更新,这也是我们强化学习里面将采用的;

初始化计数器 N(a) = 0 和奖励期望估计值

fot t = 1 -> T do1.选取某根拉杆,该动作记为

2.获得奖励

3.更新计数器:

4.更新期望奖励估计:

End for

上面之所以可以如此进行增量式期望更新其实是有下方公式(1)可以推导的:

期望更新的问题解决了,那么我们该处理行动的问题,也就是在这 k 个老虎机中我们应该选择哪个?我们下面看看 ε 贪心方法。

ε 贪心方法(ε -Greedy method)

对于一个 10 臂老虎机,我们要把所有的拉杆都拉动一下才知道哪根拉杆可能获得最大的奖励,通常如果我仅靠已知的信息仅仅来自有限次的交互观测,所以当前的最优拉杆不一定是全局最优的,这也很好理解。我已我们需要增加探索(exploration)这种方式进行行动,也就是让我们的选择的行动有一定概率去尝试一些没尝试过的选择,这样兴许会发现期望值更高的选择。

所以在 ε 贪心方法中去尝试没有选择过的行动就叫做探索(exploration),在现有的数据中找到期望最大的值作为行动叫做利用(Exploit)。ε 贪心方法就是设定一个 ε 值, 用来指导我到底是探索(Explore)还是利用(Exploit)现有的数据。

比如将 ε 设定为 0.1,以保证将 10%的次数投入在探索(Explore),90%的次数用于利用(Exploit),因为一直在探索,而不仅仅局限于当前的交互观测,所以当尝试的次数足够多时当前的最优拉杆是可以趋近于最优的拉杆,公式如下:

但是如果 ε 的值一直不变也是会有问题的,其实也很容易想到,假设 ε 设定为 0.1,那么再怎么最优也有 10%的概率是随机的,那么我们在上面提到了

被称为悔恨度(regret),

一定会随着实验的次数不停增长:

由于我们随着实验次数的增加其实对期望的估计会越来越准确,那么对于有限的 K 臂老虎机这种情况,实际上可以尝试选择 ε 值随时间衰减的贪婪算法,比如可以设置为反比例衰减,公式为:。这样我们可以看到这个算法明显优于原来的随机取值:

最后我们根据上面的方法逐步训练算出了各个老虎机的期望,用期望形成了一张表,然后我们就可以根据这种选择最大期望的老虎机进行行动了。

上面所讲的这些方法都是没有状态的,下面我们加入状态看看该如何进行训练。

满足三要素有限步骤环境

到这里我们把状态也添加进来,也就是说每次行动之后,自身所处的状态会变,那么智体又该如何做决策。需要注意的是,我们为了简化,这里仍然有一条件,那就是行动和状态是有限的,不会很多。

马尔可夫决策过程(Markov decision process,MDP)

在继续往下之前先来看看什么是 MDP。上面讲的多臂老虎机实际上是没有包含状态(State)的,而马尔可夫决策过程包含状态信息以及状态之间的转移机制。

我们用 St 表示所有可能的状态组成状态集合,如在某时刻 t 的状态 St 通常取决于时刻 t 之前的状态。我们将已知历史信息时下一个时刻状态为 St+1 的概率表示成

。当且仅当某时刻的状态只取决于上一时刻的状态时,一个随机过程被称为具有马尔可夫性质(Markov property),用公式表示为:

即下一个状态只取决于当前状态,而不会受到过去状态的影响。

我们通常用元组 (S,P)描述一个马尔可夫过程,其中 S 是有限数量的状态集合,P 是状态转移矩阵(state transition matrix)。状态转移矩阵定义了所有状态对之间的转移概率,即:

矩阵 P 中第 i 行第 j 列元素:

表示从状态

转移到状态

的概率,我们称

为状态转移函数。从某个状态出发,到达其他状态的概率和必须为 1,即状态转移矩阵 P 的每一行的和为 1。

在马尔可夫过程的基础上加入奖励函数 r 和折扣因子 γ,就可以得到马尔可夫奖励过程(Markov reward process),一个马尔可夫奖励过程由(S,P,r,γ)构成。在一个马尔可夫奖励过程中,从第 t 时刻状态 St 开始,直到终止状态时,所有奖励的衰减之和称为回报Gt(Return),公式如下:

这上面的公式其实也很符合常识,对于未来的预期通常预测是不准确的,那么我们的的回报折扣力度力度会更大一些,所以每往后推一个时刻会多乘一个折扣因子。

在马尔可夫奖励过程中,一个状态的期望回报(即从这个状态出发的未来累积奖励的期望)被称为这个状态的价值(value)。所有状态的价值就组成了价值函数(value function),价值函数的输入为某个状态,输出为这个状态的价值。我们将价值函数写成

,展开为:

态,输出为这个状态的价值。我们将价值函数写成

,展开为公式(2):

一方面,即时奖励的期望正是奖励函数的输出

一方面,即时奖励的期望正是奖励函数的输出,

;另一方面,等式中剩余部分

可以根据从状态s出发的转移概率得到,即可以得到:

我们通过简单推导就可以分别得到两个价值函数的贝尔曼期望方程(Bellman Expectation Equation)公式(3):

上面这两个函数需要记住了,之后的一些强化学习算法都是据此推导出来的。

强化学习的目标通常是找到一个策略,使得智能体从初始状态出发能获得最多的期望回报。那么我们就需要找到最优的状态价值函数,以及最优的动作价值函数,可以记为:

为了使

最大,我们需要在当前的状态动作对(s,a)之后都执行最优策略。于是我们得到了最优状态价值函数和最优动作价值函数之间的关系:

最优状态价值是选择此时使最优动作价值最大的那一个动作时的状态价值:

那其实我们也可以得出贝尔曼最优方程公式(4):

上面这个方程看起来很好,但是实际上我们需要知道所有的状态转移函数和奖励函数,这在很多场景下是无法实现的,所以我们需要使用蒙特卡洛方法做一个近似估计。

蒙特卡洛方法

蒙特卡洛方法它是一种通过随机抽样来解决统计问题的方法。其基本思想是通过在特定区域内进行随机抽样,然后根据抽样结果来估计某个量的值。

比如下面我们需要计算一个半径为 1 的圆形的面积。我们知道圆的面积公式是 ,其中 是半径。在这个例子中,半径 ,我们实际上想要估计圆周率 的值,那么可以在下面的正方形中随机地抽取大量的点,统计落在圆内点的数量,然后除以总抽样点的数量。这个比值就是圆形面积与正方形面积之比。随着抽样点数量的增加,我们的估计值将越来越接近圆的真实面积,即 ,然后我们就可以根据面积和半径算出圆周率 的值。

所以我们可以延申一下,状态的价值期望等于

在蒙特卡洛方法中,我们从状态 s 开始模拟 N 个轨迹,每个轨迹的累积折扣回报分别为 G_1, G_2, ..., G_N。状态 s 的价值估计 V(s) 可以表示为:

计算回报的期望时,除了可以把所有的回报加起来除以次数,还有一种增量更新的方法。对于每个状态 S 和对应回报 G,进行如下计算公式(5):

这种增量更新的方式我们在上面已经讲过,只是将它推导到价值函数中。根据上面的公式,我们将

替换成 α,表示对价值估计更新的步长,可以将它取为一个常数,这样可以在当前步结束即可进行计算。又有下面公式(6):

所以可以用当前获得的奖励加上下一个状态的价值估计来作为在当前状态会获得的回报,即:

其中

通常被称为时序差分(temporal difference,TD)误差(error),时序差分算法将其与步长的乘积作为状态价值的更新量,这样我们只需要知道下一个状态的价值和当前状态的价值是多少就可以更新最新的价值了。下面我会用这个公式带入到我们的强化学习的算法中。

Q-learning 算法

到这里来到了我们第一个强化学习算法,它是我们下面将要讲到的 DQN 的弱化版本。是强化学习算法中value-based的算法,value 指的就是我们上面提到的动作价值 ,就是在某一个时刻的状态 s 下,采取动作 a 能够获得收益的期望。

为了能够得到这个收益的期望,Q-learning 使用了一张表,里面记录了所有的状态和动作所能带来的 Q 值,我们把这张表叫做 Q 表。比如对于我们的悬崖漫步来说共有 48 个格子加上上下左右 4 个动作:

那么我们可以用它来初始化我们的表格,纵坐标表示格子序号,横坐标表示动作:

比如当前智能体(agent)在 s1 这个状态上,下一步该做什么行动就会去这个表里面找哪个 Q 值最大,发现向下行动是最大的,那么就会往下走,这个时候我们获取到 Q(s1,下) 乘上一个衰减值 gamma (比如是 0.9) 并加上到达下一个状态时所获取的奖励 R ,把这个值作为现实中 Q(s1,下)的值,也就是 ‘Q 现实’,之前的根据 Q 表 得到的 Q(s1,下)是 Q 表估计的值,也就是‘Q 估计’, 有了 Q 现实 和 Q 估计,就可以更新 Q(s1,下)的值,公式如下:

上面公式中

γ

就是Q 现实,α 是学习率, 来决定这次的误差有多少是要被学习的, alpha 是一个小于 1 的数,γ 是对未来 reward 的衰减值,我们在上面介绍过。

那么有了这个公式在加上我们每一步中得到的四元组

就可以不停的更新我们的 Q 表,数据中的 S 和 A 是给定的条件,R 和 S'皆由环境采样得到。Q-learning 算法的具体流程如下:

初始化 Q(s,a)

for 序列 e = 1 -> E do:

用 ε -Greedy 策略根据 Q 选择当前状态 s 下的动作 a

得到环境反馈的 r,s‘

得到初始状态 s

for 时间步 t = 1-> T do:

End for

End for

下面代码是 chatgpt4 生成的,我小改了一下:

启动我们的程序训练 100 次之后可以发现其实可以很好的进行游戏了:

深度强化学习 DQN

在上面我们讲了在 Q-learning 算法中我们以矩阵的方式建立了一张存储每个状态下所有动作 Q 值的表格。表格中的每一个动作价值 Q(s,a)表示在状态下选择动作然后继续遵循某一策略预期能够得到的期望回报。

然而,这种用表格存储动作价值的做法只在环境的状态和动作都是离散的,并且空间都比较小的情况下适用,如果是状态或者动作数量非常大的时候,这种做法就不适用了。

值函数近似(Function Approximation)的方法就是为了解决状态空间过大,通过用函数而不是 Q 表来表示 Q(s,a)。

其中 w 称为权重,也就是我们在神经网络里面需要训练收敛的值,在上面的 Q-learning 中我们的强化学习是训练 Q 表,在神经网络里面训练收敛的就是 w 值。通过神经网络和 Q-learning 结合就是 DQN(Deep Q-Network)了。

在 Q-learning 中我们更新 Q 表是利用每步的 reward 和当前 Q 表来迭代的,那么同样我们也可以用这种方法来设计我们的 Loss Function:

上面的公式其实就是一个均方误差,真实值与预测值之间的差的平方,和我们上面的 Q-learning 时序差分(temporal difference,TD)函数其实很像。

有了上面的公式之后我们就可以像 Q-learning 一样利用四元组

来训练我们的模型了。但是在一般的有监督学习中,假设训练数据是独立同分布的,我们每次训练神经网络的时候从训练数据中随机采样一个或若干个数据来进行梯度下降,随着学习的不断进行,每一个训练数据会被使用多次。

为了更好地将 Q-learning 和深度神经网络结合,DQN 算法采用了经验回放(experience replay)方法,具体做法为维护一个回放缓冲区,将每次从环境中采样得到的四元组数据存储到回放缓冲区中,训练 Q 网络的时候再从回放缓冲区中随机采样若干数据来进行训练。

因此在更新网络参数的同时目标也在不断地改变,这非常容易造成神经网络训练的不稳定性,DQN 便使用了目标网络和训练网络一起。

训练网络

用于计算原来的损失函数中 第二项,使用正常梯度下降方法来进行更新;

目标网络

用于计算原来的损失函数中 第一项,其中

表示目标网络中的参数,为了让更新目标更稳定,目标网络并不会每一步都更新。目标网络使用训练网络的一套较旧的参数每隔 C 步才会与训练网络同步一次,即

具体流程如下:

用随机的网络参数

初始化训练网络和目标网络;

初始化经验回放池 R;

for 序列 e = 1->E do

根据训练网络

用 ε -Greedy 策略选择动作

执行动作

,获得回报

,环境状态变为

存储进回放池 R 中;

若 R 中数据足够,从中采样 N 个数据;

对每个数据,用目标网络计算 ;

最小化目标损失

,,以此更新训练网络;

更新目标网络;

获取环境初始状态 s1;

for 时间步 t= 1->T do

我们以 CartPole 为例来讲解一下 DQN 的代码。

对于 CartPole 来说输出主要由四个:

行动也只有两个,向左或向右,所以我们的模型也可以构建的很简单。下面来看看具体的代码,代码也是用 chatgpt 生成的,我稍微改了一下。我们的 DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,由于游戏不是很复杂所以选用简单的两层网络结构就行了:

我们还需要一个缓存区来存放从环境中采样的数据:

然后就是我们的训练函数,批量从缓存区获取数据,使用 DQN 算法进行训练:

最后就是我们的主循环函数了,在每个 episode 中,我们选择一个动作(使用 ε-greedy 策略),执行该动作,并将结果存储在 replay buffer 中:

训练完之后使用保存好的 model.pth 参数,就可以实际使用起来了:

总结

这一篇文章我们从最开始的 K 臂老虎机入手讲解了强化学习的基本原理,然后切入到 Q-learning 中学习如何使用 Q 表来进行强化学习,最后再借助神经网络将 Q 表替换成用函数来拟合计算 Q 值。

Reference

https://lilianweng.github.io/posts/2018-01-23-multi-armed-bandit/

https://yaoyaowd.medium.com/%E4%BB%8Ethompson-sampling%E5%88%B0%E5%A2%9E%E5%BC%BA%E5%AD%A6%E4%B9%A0-%E5%86%8D%E8%B0%88%E5%A4%9A%E8%87%82%E8%80%81%E8%99%8E%E6%9C%BA%E9%97%AE%E9%A2%98-23a48953bd30

https://zh.wikipedia.org/wiki/%E8%92%99%E5%9C%B0%E5%8D%A1%E7%BE%85%E6%96%B9%E6%B3%95

https://rl.qiwihui.com/zh_CN/latest/partI/index.html

https://github.com/ty4z2008/Qix/blob/master/dl.md

QQ浏览器

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/28074.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

vue3.0仿微信聊天|Vue3+Vant3.x聊天实例

Vue3-Chatroom 基于vue3.x开发的仿微信界面聊天室。 使用vue3.0vuex4.xvue-router4vant3.xv3popup构建的移动端聊天实例。基本实现了消息发送/gif动图、图片/视频预览、网址查看、红包/朋友圈等功能。 实现技术 编码/技术:vscodevue3.0/vuex4.x/vue-router4UI组件库…

4DIAC 运行时(Forte)连接PIFace Digital 2 模块

Piface 模块 Piface 是树莓PI 上的一个通用数字输入输出模块。采用SPI 与树莓派通信。 该模块使用microchip的MCP23S17SP 芯片。通过SPI 接口控制16个GPIO 端口,端口可以设置为输入或者输出方式。使用单一的接口来扩展linux IO 端口,减少了软件的复杂性…

什么是音色?

要问最近最火的节目是什么? 《浪姐》绝对可以冲击C位。 要问最近最火的剧是哪部? 有全中国小学生最近都怕的张东升老师那部前三甲无疑。 要问最近最火的歌是哪首? 《Mojito》或许是唯一的答案。 这首极具拉丁风格的歌让周董再一次回答了“谁是…

关于springboot+simbot+mriai实现QQ群智能回复机器人

前言 前几天在一个在一个java的交流群上发现了一个舔狗机器人,感觉有点意思。在git上逛了一圈发现simbot这个框架封装得还不错,这是一个基于kotlin的框架但他并不仅至此。用java也是能进行编写工作,我们简单尝试一下。 前期准备 本次demo使用…

四. IEC 61499开源项目4diac配置modbus

开源的4diac运行时只支持modbus主站(modbus客户端),配置forte运行时支持modbus主站可以通过运行时操作支持modbus从站的远程IO模块,此处讲解的是modbus tcp。从4diac官网下载的forte运行时默认是不支持modbus协议的,要…

PDF Forte Pro(PDF转换器)v3.1.2免费版

PDF Forte Pro是一款优秀的PDF转换器,它支持将超过10种常用文件格式转换为PDF,包括word,Excle,PPT,PSD,Image和Dwg。所有Windows平台完美兼容,转换后的PDF文档无质量损失,而且拥有超…

FORTE和RIPPLE(瑞波)出资一亿美元成立基金,帮助游戏开发者应用区块链技术

a16z被投企业Forte向游戏开发者提供区块链技术平台和资金支持。 为游戏行业提供区块链技术平台的Forte和Ripple(瑞波)的开发者生态基金Xpring出资一亿美元成立基金帮助游戏开发者更好的利用区块链技术。该笔资金将与Forte的技术平台一起运作,…

关于MS Access替代方案 低代码神器 nuBuilder Forte:基于PHP和MySQL开源工具

很久很久以前用MS Access 写了几个程序,一直想把它们换掉,但始终没有找到一个工作量适度的工具,近来有点时间于是在网上查询,终于有了新发现nuBuilder Forte,这是需要服务器和PHP的软件包,一般来说花一到两…

4diac forte 1.12.0 版本modbus 的修改

问题 4diac 项目的更新真的是个问题。没有对所有的模块完成测试。在forte 1.12.0 版本上编译就出现了问题。4diac 的论坛上讨论的比较少,而且大多数是早几年的内容。没办法,只能自己啃源代码。 编译的问题。 1.modbustimedeve…

Kabam创始人团队成立FORTE,打造区块链游戏平台

上海,2019年2月22日- 今日,数位资深游戏行业人士组成的创始人团队正式宣布成立Forte(发音为FOR-TAY)。他们来自Kabam、GarageGames、 Unity和Linden Lab等公司,团队累积拥有超过百年的游戏与技术平台开发经验。Forte旨在为游戏开发者打造加速区块链技术落地的应用平台,以…

4diac.forte 支持 OPC UA、MQTT、Modbus的方法

forte是基于c的第三方开源IEC 61499运行环境,默认可以不启用opcua,如果要启用opcua则需要在编译时指定opcua的参数。 1.OPCUA 1.在编译opcua时,即open62541, 需要定义 UA_ENABLE_AMALGAMATIONON 2.cmake forte时,需要FORTE_COM…

IEC61499开源项目FORTE部分源码分析

一、IEC 61499简介 IEC 61499 作为工业自动化领域分布式控制系统级建模语言的标准,其第一(体系结构)、二(软件工具要求)、四(兼容文件的规则)部分的第一版于 2005 年正式发布,并在 …

2023搜狐科技峰会结束 白春礼刘韵洁武向平等院士解读科技新格局

雷递网 乐天 5月18日 正值“517世界电信日”,搜狐于北京如期举办“2023搜狐科技峰会”。 走入第五个年头的峰会继续在内容深度和广度上实现新突破,从宇宙文明、天文卫星、人类永生,到核聚变、6G通信、脑机接口,再到通用人工智能时…

安卓版ChatGPT要来了!

千呼万唤始出来! OpenAI并没有给出发布的具体日期,官宣中只是提供了一个“预订”(预注册)入口。 但安卓党们在得知这事后,纷纷搓起了激动的小手: 终于可以换回去用安卓手机了! 不过这次OpenAI也…

关于嵌入式开发

写在前面 嵌入式是一个具有深度和广度的概念,设计的知识面非常广阔,如数字、电子、编程语言和通讯网络等。嵌入式开发就是指在嵌入式操作系统下进行开发。对于嵌入式系统的定义,目前一种普遍被认同的定义是:以应用为中心&#xff…

万字长文说清大模型在自动驾驶领域的应用

交流群 | 进“传感器群/滑板底盘群/汽车基础软件群/域控制器群”请扫描文末二维码,添加九章小助手,务必备注交流群名称 真实姓名 公司 职位(不备注无法通过好友验证) 作者 | 张萌宇 随着ChatGPT的火爆,大模型受到的…

Android开发成功转行车载开发之后,并没有想象中的那么简单,我承认,是我小瞧了它

前言 近几年的Android开发岗位就业环境想必大家也都有所耳闻,许多Android开发工程师都找不到自己满意的工作,于是纷纷另谋出路… 刚好这几年随着Android车载开发的兴起,令人眼睛一亮的是车载开发工程师的工资普遍偏高,这高昂的工…

2023年,Android程序员就业方向是怎样的?

一转眼,2023年一半就要过去了,各位Android程序员的工作还顺利吗? 今年以来各大厂纷纷爆出裁员的新闻,Chat GPT等人工智能工具的爆火也让今年IT行业的就业状况雪上加霜。 不少人觉得近几年的打工人普遍又卷又焦虑,岗位…

如何定义一款好的自动驾驶芯片?

导读 自动驾驶领域,传统处理器的竞争规则正发生急速的变化。 一般来说,人工智能的发展主要取决于两大基本要素:算力和算法。自动驾驶作为目前技术投入较大、商业落地较早、市场前景广阔的人工智能应用,其主控芯片的算力也被业内拿…

星火认知大模型发布,科大讯飞入场科技巨头AI大战?

自从ChatGPT横空出世,一个更美好的世界开始向我们招手。为了推开新时代的大门,几乎所有人工智能厂商都投入了最大的热情逐浪AIGC。 5月6日,科大讯飞召开了“讯飞星火认知大模型”成果发布会。发布会现场,科大讯飞董事长刘庆峰展示…