最近一段时间看到版上关于 C++ 里浮点变量精度的讨论比较多,那么我就给对这个问题有疑惑的人详细的讲解一下 intel 的处理器上是如何处理浮点数的。为了能更方便的讲解,我在这里只以 float 型为例,从存储结构和算法上来讲, double 和 float 是一样的,不一样的地方仅仅是 float 是 32 位的, double 是 64 位的,所以 double能存储更高的精度。还要说的一点是文章和程序一样,兼容性是有一定范围的,所以你想要完全读懂本文,你最好对二进制、十进制、十六进制的转换有比较深入的了解,了解数据在内存中的存储结构,并且会使用 VC.net 编译简单的控制台程序。 OK ,下面我们开始。

大家都知道任何数据在内存中都是以二进制( 1 或着 0 )顺序存储的,每一个 1 或着 0 被称为 1 位,而在x86CPU 上一个字节是 8 位。比如一个 16 位( 2 字节)的 short int 型变量的值是 1156 ,那么它的二进制表达就是: 00000100 10000100 。由于 Intel CPU 的架构是 Little Endian (请参数机算机原理相关知识),所以它是按字节倒序存储的,那么就因该是这样: 10000100 00000100 ,这就是定点数 1156 在内存中的结构。

那么浮点数是如何存储的呢?目前已知的所有的 C/C++ 编译器都是按照 IEEE (国际电子电器工程师协会)制定的 IEEE 浮点数表示法来进行运算的。这种结构是一种科学表示法,用符号(正或负)、指数和尾数来表示,底数被确定为 2 ,也就是说是把一个浮点数表示为尾数乘以 2 的指数次方再加上符号。下面来看一下具体的 float的规格:

float
共计 32 位,折合 4 字节 
由最高到最低位分别是第 31 、 30 、 29 、……、 0 位 
31 位是符号位, 1 表示该数为负, 0 反之。 
30-23 位,一共 8 位是指数位。 
22-0 位,一共 23 位是尾数位。 
每 8 位分为一组,分成 4 组,分别是 A 组、 B 组、 C 组、 D 组。 
每一组是一个字节,在内存中逆序存储,即: DCBA

我们先不考虑逆序存储的问题,因为那样会把读者彻底搞晕,所以我先按照顺序的来讲,最后再把他们翻过来就行了。

现在让我们按照 IEEE 浮点数表示法,一步步的将 float 型浮点数 12345.0f 转换为十六进制代码。在处理这种不带小数的浮点数时,直接将整数部转化为二进制表示: 1 11100010 01000000 也可以这样表示:11110001001000000.0 然后将小数点向左移,一直移到离最高位只有 1 位,就是最高位的 1 :1.11100010010000000 一共移动了 16 位,在布耳运算中小数点每向左移一位就等于在以 2 为底的科学计算法表示中指数 +1 ,所以原数就等于这样: 1.11100010010000000 * ( 2 ^ 16 ) 好了,现在我们要的尾数和指数都出来了。显而易见,最高位永远是 1 ,因为你不可能把买了 16 个鸡蛋说成是买了 0016 个鸡蛋吧?(呵呵,可别拿你买的臭鸡蛋甩我 ~ ),所以这个 1 我们还有必要保留他吗?(众:没有!)好的,我们删掉他。这样尾数的二进制就变成了: 11100010010000000 最后在尾数的后面补 0 ,一直到补够 23 位:11100010010000000000000 ( MD ,这些个 0 差点没把我数的背过气去 ~ )

再回来看指数,一共 8 位,可以表示范围是 0 - 255 的无符号整数,也可以表示 -128 - 127 的有符号整数。但因为指数是可以为负的,所以为了统一把十进制的整数化为二进制时,都先加上 127 ,在这里,我们的 16 加上127 后就变成了 143 ,二进制表示为: 10001111
12345.0f 这个数是正的,所以符号位是 0 ,那么我们按照前面讲的格式把它拼起来: 
0 10001111 11100010010000000000000
01000111 11110001 00100000 00000000
再转化为 16 进制为: 47 F1 20 00 ,最后把它翻过来,就成了: 00 20 F1 47 。 
现在你自己把 54321.0f 转为二进制表示,自己动手练一下!

有了上面的基础后,下面我再举一个带小数的例子来看一下为什么会出现精度问题。 
按照 IEEE 浮点数表示法,将 float 型浮点数 123.456f 转换为十六进制代码。对于这种带小数的就需要把整数部和小数部分开处理。整数部直接化二进制: 100100011 。小数部的处理比较麻烦一些,也不太好讲,可能反着讲效果好一点,比如有一个十进制纯小数 0.57826 ,那么 5 是十分位,位阶是 1/10 ; 7 是百分位,位阶是 1/100; 8 是千分位,位阶是 1/1000 ……,这些位阶分母的关系是 10^1 、 10^2 、 10^3 ……,现假设每一位的序列是 {S1 、 S2 、 S3 、……、 Sn} ,在这里就是 5 、 7 、 8 、 2 、 6 ,而这个纯小数就可以这样表示: n = S1 * ( 1 / ( 10 ^ 1 ) ) + S2 * ( 1 / ( 10 ^ 2 ) ) + S3 * ( 1 / ( 10 ^ 3 ) ) + …… + Sn * ( 1 / ( 10 ^ n ) ) 。把这个公式推广到 b 进制纯小数中就是这样: 
n = S1 * ( 1 / ( b ^ 1 ) ) + S2 * ( 1 / ( b ^ 2 ) ) + S3 * ( 1 / ( b ^ 3 ) ) + …… + Sn * ( 1 / ( b ^ n ) )

天哪,可恶的数学,我怎么快成了数学老师了!没办法,为了广大编程爱好者的切身利益,喝口水继续!现在一个二进制纯小数比如 0.100101011 就应该比较好理解了,这个数的位阶序列就因该是 1/(2^1) 、 1/(2^2) 、1/(2^3) 、 1/(2^4) ,即 0.5 、 0.25 、 0.125 、 0.0625 ……。乘以 S 序列中的 1 或着 0 算出每一项再相加就可以得出原数了。现在你的基础知识因该足够了,再回过头来看 0.45 这个十进制纯小数,化为该如何表示呢?现在你动手算一下,最好不要先看到答案,这样对你理解有好处。

我想你已经迫不及待的想要看答案了,因为你发现这跟本算不出来!来看一下步骤: 1 / 2 ^1 位(为了方便,下面仅用 2 的指数来表示位), 0.456 小于位阶值 0.5 故为 0 ; 2 位, 0.456 大于位阶值 0.25 ,该位为 1 ,并将0.45 减去 0.25 得 0.206 进下一位; 3 位, 0.206 大于位阶值 0.125 ,该位为 1 ,并将 0.206 减去 0.125 得0.081 进下一位; 4 位, 0.081 大于 0.0625 ,为 1 ,并将 0.081 减去 0.0625 得 0.0185 进下一位; 5 位0.0185 小于 0.03125 ,为 0 ……问题出来了,即使超过尾数的最大长度 23 位也除不尽!这就是著名的浮点数精度问题了。不过我在这里不是要给大家讲《数值计算》,用各种方法来提高计算精度,因为那太庞杂了,恐怕我讲上一年也理不清个头绪啊。我在这里就仅把浮点数表示法讲清楚便达到目的了。

OK ,我们继续。嗯,刚说哪了?哦对对,那个数还没转完呢,反正最后一直求也求不尽,加上前面的整数部算够 24 位就行了: 1111011.01110100101111001 。某 BC 问:“不是 23 位吗?”我:“倒,不是说过了要把第一个 1 去掉吗?当然要加一位喽!”现在开始向左移小数点,大家和我一起移,众:“ 1 、 2 、 3 ……”好了,一共移了 6 位, 6 加上 127 得 133 (怎么跟教小学生似的?呵呵 ~ ),二进制表示为: 10000101 ,符号位为……再……不说了,越说越啰嗦,大家自己看吧: 
0  10000101  11101101110100101111001
42  F6  E9  79
79  E9  F6  42

下面再来讲如何将纯小数转化为十六进制。对于纯小数,比如 0.0456 ,我们需要把他规格化,变为 1.xxxx * (2 ^ n )的型式,要求得纯小数 X 对应的 n 可用下面的公式: 
n = int( 1 + log (2)X ); 再用 X / ( 2 ^ n ) 就可以得到规格化后的小数了。

0.0456 我们可以表示为 1.4592 乘以以 2 为底的 -5 次方的幂,即 1.4592 * ( 2 ^ -5 ) 。转化为这样形式后,再按照上面第二个例子里的流程处理: 
1. 01110101100011100010001
去掉第一个 1
01110101100011100010001
-5 + 127 = 122
0  01111010  01110101100011100010001
最后: 
11 C7 3A 3D

另外不得不提到的一点是 0.0f 对应的十六进制是 00 00 00 00 ,记住就可以了。

最后贴一个可以分析并输出浮点数结构的函数源代码,有兴趣的自己看看吧:

// 输入 4 个字节的浮点数内存数据 
void DecodeFloat(BYTE pByte[4]) {
    printf(" 原始(十进制): %d  %d  %d  %d/n", (int) pByte[0],
           (int) pByte[1], (int) pByte[2], (int) pByte[3]);
    printf(" 翻转(十进制): %d  %d  %d  %d/n", (int) pByte[3],
           (int) pByte[2], (int) pByte[1], (int) pByte[0]);
    bitset<32> bitAll(*(ULONG *) pByte);
    string strBinary = bitAll.to_string<char, char_traits<char>, allocator<char> >();
    strBinary.insert(9, "  ");
    strBinary.insert(1, "  ");
    cout << " 二进制: " << strBinary.c_str() << endl;
    cout << " 符号: " << (bitAll[31] ? "-" : "+") << endl;
    bitset<32> bitTemp;
    bitTemp = bitAll;
    bitTemp <<= 1;
    LONG ulExponent = 0;
    for (int i = 0; i < 8; i++) {
        ulExponent |= (bitTemp[31 - i] << (7 - i));
    }
    ulExponent -= 127;
    cout << " 指数(十进制): " << ulExponent << endl;
    bitTemp = bitAll;
    bitTemp <<= 9;
    float fMantissa = 1.0f;
    for (int i = 0; i < 23; i++) {
        bool b = bitTemp[31 - i];
        fMantissa += ((float) bitTemp[31 - i] / (float) (2 << i));
    }
    cout << " 尾数(十进制): " << fMantissa << endl;
    float fPow;
    if (ulExponent >= 0) {
        fPow = (float) (2 << (ulExponent - 1));
    } else {
        fPow = 1.0f / (float) (2 << (-1 - ulExponent));
    }
    cout << " 运算结果: " << fMantissa * fPow << endl;
}

累死了,我才发现这篇文章虽然短,然而确是最难写的。上帝,我也不是机算机,然而为什么我满眼都只有 1 和0 ?看来我也快成了黑客帝国里的那个看通迅员了……希望大家能不辜负我的一翻辛苦,帮忙 up 吧