说明
在折腾了一番pymc3 + theano的gpu环境搭建之后,我突然发现:
核心逻辑不应该再依赖这些第三方的轮子了,而且这轮子还缺了角
在未来的几个月内,我会建立自己的遗传算法和MCMC/Gibbs方法,通过pytorch的张量来使用GPU。本篇算是一个开始吧,讨论如何从现有以pandas为主的数据分析全面转向「矩阵/张量」的步骤。
内容
目前看来,只有矩阵计算是跨语言,跨设备的。矩阵计算可以达到单核计算的最高效率。
过去,在从SAS转向python的时候是从pandas开始的,这个包也的确很好用,当时大约花了1个月时间适应了这个包,然后完全脱开SAS。所以现在想用类似的方法。
原则1:2022年开始,除了基础的IO以及甲方项目,不再使用Pandas进行数据的处理、计算。
原则2:使用Numpy矩阵完全数据处理与计算(CPU计算)
原则3:使用Pytorch的张量复制Numpy矩阵在GPU上进行等效计算
先设几个小目标:
- 1 同时对所有列变换。例如,同时对10个变量进行分箱。在过去,一般需要按列进行循环,只能达到列运算的最高效率。
- 2 对行变换像对列变换一样简单。目前总是要按行迭代处理。
步骤
- 1 IO。 可以使用包含pandas在内的方法,获取输入向量/矩阵。也可以将结果重新组织为df输出。
- 2 Mapping字典与映射。将所有的非数值转为浮点。大小为fp32(单精度)或fp16(半精度),并以概率分布来约束取值的合法性。
- 3 Selection 选择。分为行、列两个方向,可以同时进行。
- 4 Transformation 变换。之前搞过,使用方式类似pandas的apply,可以按行或者按列,非常方便。
- 5 Calculation 计算 。逐元素计算和点乘。
- 7 Summary 汇总。 分组统计,模拟groupby。除了常用的count、sum再加上consecutive_count
以上这些完成后,基本上可以完成目前pandas所作的所有数据处理。也不必考虑什么multiprocess
了,矩阵计算必然是单核最优的。如果慢的话可以拼成大矩阵送到显卡里计算。