簡體   English   中英

hadoop map減少IntWritable范圍多長時間?

[英]How long hadoop mapreduce IntWritable range?

Hadoop mapreduce是用於分析大數據的框架。 因此,分析程序之一就是大數據分析程序。 因此,我想問一下,Hadoop的IntWritable范圍多長時間(如果使用十億之前的數據是否合適?)。 而且,如果要計數,我們可以對Java Int數據類型執行加法或計數操作,Java Int數據類型范圍如何? 分析大數據是否也合適? (如果數據到十億)

非常感謝....

int數據類型是32位帶符號的二進制補碼整數。 最小值為-2,147,483,648,最大值為2,147,483,647(含)。

IntWritable也具有相同的范圍容量,因為它僅在內部使用int類型。

如果要超出此限制,請使用LongWritable

您可以將int,long類型用作本地變量,但是如果您的計數在網絡上移動,則必須使用* Writable作為hadoop類型的一種實踐:-)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM