[英]Bitwise XOR in Javascript compared to C++
我正在將一個簡單的C ++函數移植到Javascript,但是似乎我在Javascript處理按位運算符的方式時遇到了問題。
在C ++中:
AnsiString MyClass::Obfuscate(AnsiString source)
{
int sourcelength=source.Length();
for(int i=1;i<=sourcelength;i++)
{
source[i] = source[i] ^ 0xFFF;
}
return source;
}
Obfuscate(“ test”)產生臨時整數值
-117, -102, -116, -117
混淆(“測試”)產生字符串值
‹šŒ‹
用Javascript:
function obfuscate(str)
{
var obfuscated= "";
for (i=0; i<str.length;i++) {
var a = str.charCodeAt(i);
var b = a ^ 0xFFF;
obfuscated= obfuscated+String.fromCharCode(b);
}
return obfuscated;
}
obfuscate(“ test”)產生臨時整數值
3979 , 3994 , 3980 , 3979
obfuscate(“ test”)產生stringvalue
ྋྚྌྋ
現在,我意識到有很多線程指出Javascript將所有數字視為浮點數,按位運算涉及臨時轉換為32位int。
除了我在Javascript中混淆並在C ++中反轉之外,這確實不是問題,而且不同的結果並不完全匹配。
如何將Javascript結果轉換為C ++結果? 有一些簡單的班次嗎?
從將0xFFF
與116
進行異或得到的結果來看-117,我們必須在javascript中模擬2的補碼8位整數:
function obfuscate(str)
{
var bytes = [];
for (var i=0; i<str.length;i++) {
bytes.push( ( ( ( str.charCodeAt(i) ^ 0xFFF ) & 0xFF ) ^ 0x80 ) -0x80 );
}
return bytes;
}
好的,這些字節在Windows cp 1252中解釋,如果為負數,可能只是從256中減去。
var ascii = [
0x0000,0x0001,0x0002,0x0003,0x0004,0x0005,0x0006,0x0007,0x0008,0x0009,0x000A,0x000B,0x000C,0x000D,0x000E,0x000F
,0x0010,0x0011,0x0012,0x0013,0x0014,0x0015,0x0016,0x0017,0x0018,0x0019,0x001A,0x001B,0x001C,0x001D,0x001E,0x001F
,0x0020,0x0021,0x0022,0x0023,0x0024,0x0025,0x0026,0x0027,0x0028,0x0029,0x002A,0x002B,0x002C,0x002D,0x002E,0x002F
,0x0030,0x0031,0x0032,0x0033,0x0034,0x0035,0x0036,0x0037,0x0038,0x0039,0x003A,0x003B,0x003C,0x003D,0x003E,0x003F
,0x0040,0x0041,0x0042,0x0043,0x0044,0x0045,0x0046,0x0047,0x0048,0x0049,0x004A,0x004B,0x004C,0x004D,0x004E,0x004F
,0x0050,0x0051,0x0052,0x0053,0x0054,0x0055,0x0056,0x0057,0x0058,0x0059,0x005A,0x005B,0x005C,0x005D,0x005E,0x005F
,0x0060,0x0061,0x0062,0x0063,0x0064,0x0065,0x0066,0x0067,0x0068,0x0069,0x006A,0x006B,0x006C,0x006D,0x006E,0x006F
,0x0070,0x0071,0x0072,0x0073,0x0074,0x0075,0x0076,0x0077,0x0078,0x0079,0x007A,0x007B,0x007C,0x007D,0x007E,0x007F
];
var cp1252 = ascii.concat([
0x20AC,0xFFFD,0x201A,0x0192,0x201E,0x2026,0x2020,0x2021,0x02C6,0x2030,0x0160,0x2039,0x0152,0xFFFD,0x017D,0xFFFD
,0xFFFD,0x2018,0x2019,0x201C,0x201D,0x2022,0x2013,0x2014,0x02DC,0x2122,0x0161,0x203A,0x0153,0xFFFD,0x017E,0x0178
,0x00A0,0x00A1,0x00A2,0x00A3,0x00A4,0x00A5,0x00A6,0x00A7,0x00A8,0x00A9,0x00AA,0x00AB,0x00AC,0x00AD,0x00AE,0x00AF
,0x00B0,0x00B1,0x00B2,0x00B3,0x00B4,0x00B5,0x00B6,0x00B7,0x00B8,0x00B9,0x00BA,0x00BB,0x00BC,0x00BD,0x00BE,0x00BF
,0x00C0,0x00C1,0x00C2,0x00C3,0x00C4,0x00C5,0x00C6,0x00C7,0x00C8,0x00C9,0x00CA,0x00CB,0x00CC,0x00CD,0x00CE,0x00CF
,0x00D0,0x00D1,0x00D2,0x00D3,0x00D4,0x00D5,0x00D6,0x00D7,0x00D8,0x00D9,0x00DA,0x00DB,0x00DC,0x00DD,0x00DE,0x00DF
,0x00E0,0x00E1,0x00E2,0x00E3,0x00E4,0x00E5,0x00E6,0x00E7,0x00E8,0x00E9,0x00EA,0x00EB,0x00EC,0x00ED,0x00EE,0x00EF
,0x00F0,0x00F1,0x00F2,0x00F3,0x00F4,0x00F5,0x00F6,0x00F7,0x00F8,0x00F9,0x00FA,0x00FB,0x00FC,0x00FD,0x00FE,0x00FF
]);
function toStringCp1252(bytes){
var byte, codePoint, codePoints = [];
for( var i = 0; i < bytes.length; ++i ) {
byte = bytes[i];
if( byte < 0 ) {
byte = 256 + byte;
}
codePoint = cp1252[byte];
codePoints.push( codePoint );
}
return String.fromCharCode.apply( String, codePoints );
}
結果
toStringCp1252(obfuscate("test"))
//"‹šŒ‹"
我假設AnsiString
是某種形式的char
數組。 這就是問題所在。 在c中 , char
通常只能容納8位。 因此,當您對0xfff
XOR並將結果存儲在char
,與對0xff
進行XORing相同。
javascript並非如此。 使用Unicode的JavaScript。 通過查看整數值可以證明這一點:
-117 == 0x8b
和3979 == 0xf8b
我建議與0xff
進行異或運算,因為這將在兩種語言中均適用。 或者,您可以將c ++代碼切換為使用Unicode。
我猜想AnsiString
包含8位字符(因為ANSI字符集是8位)。 當您將XOR的結果分配回字符串時,它會被截斷為8位,因此結果值在[-128 ... 127]范圍內。
(在某些平台上,它可能是[0..255],在其他平台上,范圍可能會更寬,因為未指定char
是帶符號的還是無符號的,或者是8位或更大)。
Javascript字符串包含unicode字符,可以容納更大范圍的值,結果不會被截斷為8位。 XOR的結果的范圍至少為12位[0 ... 4095],因此在此處看到的數字很大。
假設原始字符串僅包含8位字符,則將操作更改a ^ 0xff
應該會在兩種語言中產生相同的結果。
首先,將您的AnsiString
轉換為wchar_t*
。 只有這樣才能混淆其各個字符:
AnsiString MyClass::Obfuscate(AnsiString source)
{
/// allocate string
int num_wchars = source.WideCharBufSize();
wchar_t* UnicodeString = new wchar_t[num_wchars];
source.WideChar(UnicodeString, source.WideCharBufSize());
/// obfuscate individual characters
int sourcelength=source.Length();
for(int i = 0 ; i < num_wchars ; i++)
{
UnicodeString[i] = UnicodeString[i] ^ 0xFFF;
}
/// create obfuscated AnsiString
AnsiString result = AnsiString(UnicodeString);
/// delete tmp string
delete [] UnicodeString;
return result;
}
抱歉,我不是C ++ Builder的專家,但我的意思很簡單:在JavaScript中,您有WCS2符號(或UTF-16),因此必須首先將AnsiString
轉換為寬字符。
嘗試使用WideString
代替AnsiString
我一點都不了解AnsiString
,但是我猜這與它的字符寬度有關。 具體來說,我懷疑它們的寬度小於32位,當然在按位運算中,這就是您要處理的內容的寬度,尤其是在處理2的補數時。
在JavaScript中, "test"
"t"
是字符代碼116,即b00000000000000000000000001110100。 0xFFF(4095)為b00000000000000000000111111111111,得到的結果(3979)為b000000000000000000001111111101011。 我們可以很容易地看到,對於XOR,您得到了正確的結果:
116 = 00000000000000000000000001110100 4095 = 00000000000000000000111111111111 3979 = 00000000000000000000111110001011
因此,我認為您的C ++代碼中出現了一些截斷或類似現象,尤其是因為-117是8位2的補碼中的b10001011……這正是我們在上述3979中的最后8位。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.