之所以是闲论,主要是我不想长篇大论,而且还要引证、提供文献出处,实在繁琐。

    在我看来,这类算法主要分成三个层次。

    这三个层次分别是底层几何算法、排样策略、优化算法。

    底层的几何算法是指多边形之间的位置、距离这类的算法,这看起来好像比较简单,但是纵览这几十年的文献资料,可以发现由于排料策略和优化算法的不同,衍生出很多替代或者变相的多边形位置、距离等算法。比如以多边形重叠面积来衡量多边形之间的关系,或者是多边形互相“侵入”的某个方向的长度来表达多边形之间的关系,有人会问,排样不是不允许重叠吗?这个后面会说到。  还有NFP算法,NFP算法不仅让多边形之间的位置判断更加快速,也提供了更多的排料策略选择。

    排料策略分两大类。一类是初始解是可行解。另一类是初始解可接受不可行解。最直观的看不可行解就是有重叠的。整个策略和算法会慢慢移除重叠,当然移除方法依据都有很多种类。  对于第一类的排样策略,很好理解,比如传统的左底排放策略,虽然它不是很有效,但也算是种策略,影响了国内的众多研究者^_^.    看看第二类的排样策略,现在我们就能理解为什么需要计算多边形的重叠关系了,它是多边形移动方向和移动距离大小的依据。这个时候NFP算法也常能带来很好的效果。

    优化算法这个层次相对来说影响并不大---这是仅对于第一类排样策略。 因为第一类排样策略大部分是基于调序优化的,对于这种转化为组合优化的问题,实际上各类智能优化算法比如模拟退火、遗传算法等之间并没有很多差别。  而对于第二来排样策略来说,更多的会采用传统优化算法(线性和非线性规划)和智能优化相结合的办法。

     国内的研究较之国外整体要落后10-20年。我看过很多的硕士甚至博士论文在研究别人二十年前就搞清楚了的东西。现在国际上领先的(二维)商用排样软件有shapeshifter、nester。  学院派的有德国的autonester(曾经使用过,大规模效果也不好)。国内很多公司号称掌握了什么核心技术,其实绝大多数是和别人合作,用别人的排样引擎。  这个引擎如果能达到目前国际顶尖水平,就至少价值过亿。