為什麼 0.1 + 0.2 != 0.3
阿新 • • 發佈:2022-01-02
涉及面試題:為什麼 0.1 + 0.2 != 0.3 ?如何解決這個問題?
因為 JS 採用 IEEE 754 雙精度版本( 64 位),並且只要採用 IEEE 754 的語言都有該問題
我們都知道計算機是通過二進位制來儲存東西的,那麼 0.1 在二進位制中會表示為:
// (0011) 表示迴圈
0.1 = 2^-4 * 1.10011(0011)
我們可以發現, 0.1 在二進位制中是無限迴圈的一些數字,其實不只是 0.1 ,其實很多十進位制小數用二進位制表示都是無限迴圈的。這樣其實沒什麼問題,但是 JS 採用的浮點數標準卻會裁剪掉我們的數字。
IEEE 754 雙精度版本(64位)將 64 位分為了三段
- 第一位用來表示符號;
- 接下去的 11 位用來表示指數;
- 其他的位數用來表示有效位,也就是用二進位制表示 0.1 中的 10011(0011)。
那麼這些迴圈的數字被裁剪了,就會出現精度丟失的問題,也就造成了 0.1 不再是 0.1 了,而是變成了 0.100000000000000002
0.100000000000000002 === 0.1 // true
那麼同樣的, 0.2 在二進位制也是無限迴圈的,被裁剪後也失去了精度變成了 0.200000000000000002
0.200000000000000002 === 0.2 // true
所以這兩者相加不等於 0.3 而是 0.300000000000000004
0.1 + 0.2 === 0.30000000000000004 // true
那麼可能你又會有一個疑問,既然 0.1 不是 0.1 ,那為什麼 console.log(0.1) 卻是正確的呢?
因為在輸入內容的時候,二進位制被轉換為了十進位制,十進位制又被轉換為了字串,在這個轉換的過程中發生了取近似值的過程,所以打印出來的其實是一個近似值,你也可以通過以下程式碼來驗證:
console.log(0.100000000000000002) // 0.1
解決
parseFloat((0.1 + 0.2).toFixed(10)) === 0.3 // true