说明

在折腾了一番pymc3 + theano的gpu环境搭建之后,我突然发现:核心逻辑不应该再依赖这些第三方的轮子了,而且这轮子还缺了角

在未来的几个月内,我会建立自己的遗传算法和MCMC/Gibbs方法,通过pytorch的张量来使用GPU。本篇算是一个开始吧,讨论如何从现有以pandas为主的数据分析全面转向「矩阵/张量」的步骤。

内容

目前看来,只有矩阵计算是跨语言,跨设备的。矩阵计算可以达到单核计算的最高效率。

过去,在从SAS转向python的时候是从pandas开始的,这个包也的确很好用,当时大约花了1个月时间适应了这个包,然后完全脱开SAS。所以现在想用类似的方法。

原则1:2022年开始,除了基础的IO以及甲方项目,不再使用Pandas进行数据的处理、计算。
原则2:使用Numpy矩阵完全数据处理与计算(CPU计算)
原则3:使用Pytorch的张量复制Numpy矩阵在GPU上进行等效计算

先设几个小目标:

  • 1 同时对所有列变换。例如,同时对10个变量进行分箱。在过去,一般需要按列进行循环,只能达到列运算的最高效率。
  • 2 对行变换像对列变换一样简单。目前总是要按行迭代处理。

步骤

  • 1 IO。 可以使用包含pandas在内的方法,获取输入向量/矩阵。也可以将结果重新组织为df输出。
  • 2 Mapping字典与映射。将所有的非数值转为浮点。大小为fp32(单精度)或fp16(半精度),并以概率分布来约束取值的合法性。
  • 3 Selection 选择。分为行、列两个方向,可以同时进行。
  • 4 Transformation 变换。之前搞过,使用方式类似pandas的apply,可以按行或者按列,非常方便。
  • 5 Calculation 计算 。逐元素计算和点乘。
  • 7 Summary 汇总。 分组统计,模拟groupby。除了常用的count、sum再加上consecutive_count

以上这些完成后,基本上可以完成目前pandas所作的所有数据处理。也不必考虑什么multiprocess了,矩阵计算必然是单核最优的。如果慢的话可以拼成大矩阵送到显卡里计算。