本章开始Python的优化算法系列。

优化算法,尤其是启发式的仿生智能算法在最近很火,它适用于解决管理学,运筹学,统计学里面的一些优化问题。比如线性规划,整数规划,动态规划,非线性约束规划,甚至是超参数搜索等等方向的问题。

但是一般的优化算法还是matlab里面用的多,Python相关代码较少。博主在参考了很多文章的代码和模块之后,决定学习 scikit-opt   这个模块。这个优化算法模块对新手很友好,代码简洁,上手简单。而且代码和官方文档是中国人写的,还有很多案例,学起来就没什么压力...

缺点是包装的算法种类目前还不算多,只有七种:(差分进化算法、遗传算法、粒子群算法、模拟退火算法、蚁群算法、鱼群算法、免疫优化算法)      /(其实已经够用了)

本次第一节带来的是差分进化算法的使用演示。数学原理就不多说了


首先安装模块,在cmd里面或者anaconda prompt里面输入:

pip install scikit-opt

这个包很小,很快就能装好。


差分进化算法

#定义有约束优化问题
 '''
 min f(x1, x2, x3) = x1^2 + x2^2 + x3^2
 s.t.
     x1*x2 >= 1
     x1*x2 <= 5
     x2 + x3 = 1
     0 <= x1, x2, x3 <= 5
 '''

定义上面这一段问题的代码:

def obj_func(p):
    x1, x2, x3 = p
    return x1 ** 2 + x2 ** 2 + x3 ** 2

constraint_eq = [
    lambda x: 1 - x[1] - x[2]]

constraint_ueq = [
    lambda x: 1 - x[0] * x[1],
    lambda x: x[0] * x[1] - 5]

导入包,输入参数,将DE实例化:(这里三个未知变量X,使用变量维度是3)

from sko.DE import DE

de = DE(func=obj_func, n_dim=3,       #目标函数和变量的维度
        size_pop=50, max_iter=800,    #种群规模的最大迭代次数
        lb=[0, 0, 0], ub=[5, 5, 5],   #变量的最小值和最大值的区间
        constraint_eq=constraint_eq,  #等式约束
        constraint_ueq=constraint_ueq)#不等式约束

best_x, best_y = de.run(2000)
print('best_x:', best_x, '\n', 'best_y:', best_y)

这里的run(2000)里面代表的是迭代2千轮,确保收敛。

最后的结果:

python 优化求解器 优化算法python_python

 这里默认的是寻找最小值,可以看到这个有约束优化问题的最小值为2,当且X1=1,X2=1,X3=0的时候取到。


参数详解

输入参数,很多都是默认好的。其中种群规模,变异概率,变异系数都是差分进化算法里面的参数

入参

默认值

意义

func

-

目标函数

n_dim

-

目标函数的维度

size_pop

50

种群规模

max_iter

200

最大迭代次数

prob_mut

0.001

变异概率

F

0.5

变异系数

lb

-1

每个自变量的最小值

ub

1

每个自变量的最大值

constraint_eq

空元组

等式约束

constraint_ueq

空元组

不等式约束

 输出参数:

python 优化求解器 优化算法python_python 优化求解器_02

 这里面的方法都记录了每次迭代的X和y,可以用里面的记录值去画图,展示不同迭代次数时y的变化。