paip.enhes efis 自动获取文件的中文编码


##为什么需要自动获取文件的中文编码


提高开发效率,自动获取文件的中文编码  .不需要手动设置编码...轻松的..


##cpdetector



可以使用一个开源项目cpdetector,它所在的网址是:http://cpdetector.sourceforge.net/。它的类库很小,只有500K左右,cpDetector是基于统计学原理的,不保证完全正确,利用该类库判定文本文件的代码如下:


####读外部文件(先利用cpdetector检测文件的编码格式,然后用检测到的编码方式去读文件):


#####读jar包内部资源文件(先利用cpdetector检测jar内部的资源文件的编码格式,然后以检测到的编码方式去读文件):


# ###3:探测任意输入的文本流的编码,方法是调用其重载形式:


charset=detector.detectCodepage(待测的文本输入流,测量该流所需的读入字节数);


上面的字节数由程序员指定,字节数越多,判定越准确,当然时间也花得越长。要注意,字节数的指定不能超过文本流的最大长度


作者 老哇的爪子 Attilax 艾龙, 


##实现原理

中文也走十gbk  utf8 unicode三中..只要试达的读取出来,在和汉字map相比..就能基于统计学原理...计算出来..


##python的实现

python也是有同样的的库..