簡體   English   中英

為什么javascript在分配給變量時會自動將十六進制值轉換為十進制?

[英]why javascript automatically converts hexadecimal value into decimal when assigned to a variable?

我正在嘗試將十六進制格式的一些數據存儲到JavaScript中的變量中,並以相同的格式讀取數據。 當我嘗試將變量分配給十六進制值並顯示它時,我得到的十進制值等於十六進制。

var a = 0x0F;
WScript.Echo("a = "+a);

我得到a = 15而不是a = 0x0F 為什么會這樣呢? 是否可以本身獲取十六進制格式的值?

javascript中不存在hexadecimal類型。

只有幾種類型( https://developer.mozilla.org/en-US/docs/Web/JavaScript/Data_structures ):

  • 賓語
  • ...

您正在做的是一個帶有hexadecimal值的number分配。

但是, a是一個數字,所以它的正常表示形式是decimal形式。

要獲得decimal numberhexadecimal值(作為string ),可以查看以下答案: https : //stackoverflow.com/a/57805/5119765

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM