[英]How long hadoop mapreduce IntWritable range?
Hadoop mapreduce是用於分析大數據的框架。 因此,分析程序之一就是大數據分析程序。 因此,我想問一下,Hadoop的IntWritable范圍多長時間(如果使用十億之前的數據是否合適?)。 而且,如果要計數,我們可以對Java Int數據類型執行加法或計數操作,Java Int數據類型范圍如何? 分析大數據是否也合適? (如果數據到十億)
非常感謝....
int數據類型是32位帶符號的二進制補碼整數。 最小值為-2,147,483,648,最大值為2,147,483,647(含)。
IntWritable也具有相同的范圍容量,因為它僅在內部使用int類型。
如果要超出此限制,請使用LongWritable 。
您可以將int,long類型用作本地變量,但是如果您的計數在網絡上移動,則必須使用* Writable作為hadoop類型的一種實踐:-)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.