【数模修炼之旅】10 遗传算法 深度解析(教程+代码)
接下来 C君将会用至少30个小节来为大家深度解析数模领域常用的算法,大家可以关注这个专栏,持续学习哦,对于大家的能力提高会有极大的帮助。
1 遗传算法介绍及应用
1.1 遗传算法介绍
遗传算法通过模拟自然界的遗传机制(如选择、交叉、变异等)来优化问题的解。它从一组随机生成的初始解(种群)开始,通过迭代的方式不断优化种群中的个体,以期望找到问题的最优解或近似最优解
核心要素:
-
- 编码:将问题的解表示为某种形式的字符串(如二进制串),称为染色体或基因型。
- 初始种群:随机生成一组初始解作为种群的开始。
- 适应度函数:用于评估种群中每个个体的优劣,通常与目标函数相关。
- 选择操作:根据适应度函数选择优秀的个体作为父代,用于生成下一代。
- 交叉操作:通过交叉父代的染色体来生成新的子代个体。
- 变异操作:以一定的概率对子代个体的染色体进行随机变异,以增加种群的多样性。
- 特点有:
- 直接对结构对象进行操作,不存在求导和函数连续性的限定。
- 具有内在的隐并行性和更好的全局寻优能力。
- 采用概率化的寻优方法,不需要确定的规则就能自动获取和指导优化的搜索空间。
1.2 遗传算法在数模中的应用
- 组合优化问题:
- 如旅行商问题(TSP)、背包问题、调度问题等。遗传算法可以通过编码解空间中的不同组合,并通过选择、交叉和变异操作来寻找最优解或近似最优解。
- 函数优化问题:
- 包括求解函数的最大值、最小值等。遗传算法可以直接对函数的自变量进行编码,并通过不断迭代优化来逼近最优解。
- 参数优化问题:
- 在机器学习、神经网络等领域中,经常需要优化模型的参数以提高性能。遗传算法可以通过对模型参数进行编码,并利用适应度函数来评估不同参数组合的效果,从而找到最优的参数组合。
- 多目标优化问题:
- 在许多实际问题中,往往需要同时优化多个目标。遗传算法可以通过引入多目标进化算法(如NSGA-II)来处理这类问题,通过比较不同解之间的Pareto优劣关系来指导搜索过程。
2 遗传算法的基本步骤
它通过模拟自然界的进化过程,如选择、交叉(也称杂交)、变异等,来寻找问题的最优解。遗传算法的基本步骤可以详细归纳如下:
3 遗传算法代码(matlab+python)
3.1 python
import numpy as np
import matplotlib.pyplot as plt
from matplotlib import cm
from mpl_toolkits.mplot3d import Axes3DDNA_SIZE = 24
POP_SIZE = 200
CROSSOVER_RATE = 0.8
MUTATION_RATE = 0.005
N_GENERATIONS = 50
X_BOUND = [-3, 3]
Y_BOUND = [-3, 3]def F(x, y):return 3*(1-x)**2*np.exp(-(x**2)-(y+1)**2)- 10*(x/5 - x**3 - y**5)*np.exp(-x**2-y**2)- 1/3**np.exp(-(x+1)**2 - y**2)def plot_3d(ax):X = np.linspace(*X_BOUND, 100)Y = np.linspace(*Y_BOUND, 100)X,Y = np.meshgrid(X, Y)Z = F(X, Y)ax.plot_surface(X,Y,Z,rstride=1,cstride=1,cmap=cm.coolwarm)ax.set_zlim(-10,10)ax.set_xlabel('x')ax.set_ylabel('y')ax.set_zlabel('z')plt.pause(3)plt.show()def get_fitness(pop): x,y = translateDNA(pop)pred = F(x, y)return (pred - np.min(pred)) + 1e-3 #减去最小的适应度是为了防止适应度出现负数,通过这一步fitness的范围为[0, np.max(pred)-np.min(pred)],最后在加上一个很小的数防止出现为0的适应度def translateDNA(pop): #pop表示种群矩阵,一行表示一个二进制编码表示的DNA,矩阵的行数为种群数目x_pop = pop[:,1::2]#奇数列表示Xy_pop = pop[:,::2] #偶数列表示y#pop:(POP_SIZE,DNA_SIZE)*(DNA_SIZE,1) --> (POP_SIZE,1)x = x_pop.dot(2**np.arange(DNA_SIZE)[::-1])/float(2**DNA_SIZE-1)*(X_BOUND[1]-X_BOUND[0])+X_BOUND[0]y = y_pop.dot(2**np.arange(DNA_SIZE)[::-1])/float(2**DNA_SIZE-1)*(Y_BOUND[1]-Y_BOUND[0])+Y_BOUND[0]return x,ydef crossover_and_mutation(pop, CROSSOVER_RATE = 0.8):new_pop = []for father in pop: #遍历种群中的每一个个体,将该个体作为父亲child = father #孩子先得到父亲的全部基因(这里我把一串二进制串的那些0,1称为基因)if np.random.rand() < CROSSOVER_RATE: #产生子代时不是必然发生交叉,而是以一定的概率发生交叉mother = pop[np.random.randint(POP_SIZE)] #再种群中选择另一个个体,并将该个体作为母亲cross_points = np.random.randint(low=0, high=DNA_SIZE*2) #随机产生交叉的点child[cross_points:] = mother[cross_points:] #孩子得到位于交叉点后的母亲的基因mutation(child) #每个后代有一定的机率发生变异new_pop.append(child)return new_popdef mutation(child, MUTATION_RATE=0.003):if np.random.rand() < MUTATION_RATE: #以MUTATION_RATE的概率进行变异mutate_point = np.random.randint(0, DNA_SIZE) #随机产生一个实数,代表要变异基因的位置child[mutate_point] = child[mutate_point]^1 #将变异点的二进制为反转def select(pop, fitness): # nature selection wrt pop's fitnessidx = np.random.choice(np.arange(POP_SIZE), size=POP_SIZE, replace=True,p=(fitness)/(fitness.sum()) )return pop[idx]def print_info(pop):fitness = get_fitness(pop)max_fitness_index = np.argmax(fitness)print("max_fitness:", fitness[max_fitness_index])x,y = translateDNA(pop)print("最优的基因型:", pop[max_fitness_index])print("(x, y):", (x[max_fitness_index], y[max_fitness_index]))if __name__ == "__main__":fig = plt.figure()ax = Axes3D(fig) plt.ion()#将画图模式改为交互模式,程序遇到plt.show不会暂停,而是继续执行plot_3d(ax)pop = np.random.randint(2, size=(POP_SIZE, DNA_SIZE*2)) #matrix (POP_SIZE, DNA_SIZE)for _ in range(N_GENERATIONS):#迭代N代x,y = translateDNA(pop)if 'sca' in locals(): sca.remove()sca = ax.scatter(x, y, F(x,y), c='black', marker='o');plt.show();plt.pause(0.1)pop = np.array(crossover_and_mutation(pop, CROSSOVER_RATE))#F_values = F(translateDNA(pop)[0], translateDNA(pop)[1])#x, y --> Z matrixfitness = get_fitness(pop)pop = select(pop, fitness) #选择生成新的种群print_info(pop)plt.ioff()plot_3d(ax)
3.2 matlab
使用MATLAB内置的遗传算法函数,如ga
(全局优化工具箱中的函数)。以下是一个简单的MATLAB代码示例,展示了如何使用ga
函数来解决一个优化问题。
然后,编写:
function genetic_algorithm_example % 定义目标函数(注意:ga默认是最小化问题,所以我们需要取反来最大化) fitnessFunction = @(x) -(-sin(x(1)) - cos(x(2))); % 取反来最大化 % 定义变量的边界 nvars = 2; % 变量数量 LB = -pi * ones(nvars, 1); % 下界 UB = pi * ones(nvars, 1); % 上界 % 遗传算法选项 options = optimoptions('ga', 'PlotFcn', @gaplotbestf, ... 'MaxGenerations', 100, ... 'PopulationSize', 100, ... 'Display', 'iter'); % 运行遗传算法 [x, fval] = ga(fitnessFunction, nvars, [], [], [], [], LB, UB, [], options); % 输出结果(注意:因为我们在目标函数中取了反,所以这里要再次取反) fprintf('最优解: x = %.4f, y = %.4f\n', x(1), x(2)); fprintf('最大函数值: %f\n', -fval); % 取反回真实最大值
end
在这个例子中,fitnessFunction
是我们要优化的目标函数,但因为我们想要最大化这个函数,而ga
默认是最小化问题,所以我们通过取反(-(-sin(x(1)) - cos(x(2)))
)来转换问题。
nvars
指定了变量的数量,这里是2(x和y)。
LB
和 UB
分别定义了变量的下界和上界。
options
是一个结构体,用于设置遗传算法的选项,如绘图函数、最大代数、种群大小等。
最后,ga
函数被调用,并传入目标函数、变量数量、边界和选项。它返回最优解 x
和对应的目标函数值 fval
(注意这里已经是取反后的值,所以我们需要再次取反以得到真实的最大值)。
需要参加数模竞赛的同学,可以看下面的名片,会有最新的助攻哦:(大型比赛前会对名片进行更新)