[英]why javascript automatically converts hexadecimal value into decimal when assigned to a variable?
我正在嘗試將十六進制格式的一些數據存儲到JavaScript中的變量中,並以相同的格式讀取數據。 當我嘗試將變量分配給十六進制值並顯示它時,我得到的十進制值等於十六進制。
var a = 0x0F;
WScript.Echo("a = "+a);
我得到a = 15
而不是a = 0x0F
。 為什么會這樣呢? 是否可以本身獲取十六進制格式的值?
javascript
中不存在hexadecimal
類型。
只有幾種類型( https://developer.mozilla.org/en-US/docs/Web/JavaScript/Data_structures ):
您正在做的是一個帶有hexadecimal
值的number
分配。
但是, a
是一個數字,所以它的正常表示形式是decimal
形式。
要獲得decimal
number
的hexadecimal
值(作為string
),可以查看以下答案: https : //stackoverflow.com/a/57805/5119765
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.