cost 125 ms
经常收到 Datanodes 的过时警报 - frequently getting stale alerts for Datanodes

我每小时都会收到过时的警报,如果 Data 节点和 Namenode 之间的最后接触点超过 30 秒,我们会收到这些警报。 我无法找到这种缓慢的根本原因,我有 32 个核心系统,但是当在 htop hdfs 中生成此警报时,使用率更高,但并非所有核心都 100% 被使用。 数据节点健康摘要 D ...

Hadoop localhost:9870 浏览器界面不工作 - Hadoop localhost:9870 browser interface is not working

我需要使用 Hadoop 进行数据分析。因此我安装了 Hadoop 并进行了如下配置。 但是 localhost:9870 不工作。 甚至我每次使用它时都有格式名称节点。 这个论坛的一些文章和答案提到9870是50070的更新版本。我有win 10。我也在这个论坛中提到了答案,但没有一个有效。 设置 ...

从客户端程序访问配置为高可用性的 HDFS - Accessing HDFS configured as High availability from Client program

我试图了解通过 HDFS 集群外部的名称服务(连接活动名称节点 - 高可用性名称节点)连接 HDFS 的工作程序和非工作程序的上下文。 不工作的程序: 当我读取两个配置文件(core-site.xml 和 hdfs-site.xml)并访问 HDFS 文件时,它会抛出错误 错误:我们看到未知主机异 ...

每当我重新启动我的 ubuntu 系统(Vbox)并启动我的 hadoop 时,我的名称节点都无法正常工作 - Whenever I restart my ubuntu system (Vbox) and start my hadoop , my name node is not working

每当我重新启动我的 ubuntu 系统 (Vbox) 并启动我的 Hadoop 时,我的名称节点都无法正常工作。 为了解决这个问题,每次我重新启动系统时,我必须始终保存namenode和datanode的文件夹并格式化 Hadoop。 由于 2 天我试图解决这个问题,但它不起作用。 我尝试再次将权限 ...

HDFS 上的块多久复制一次? - How often are blocks on HDFS replicated?

我有一个关于 hadoop hdfs 块复制的问题。 假设一个块写在一个datanode上,DFS的复制因子为3,namenode需要多长时间才能将这个块复制到其他datanode上? 是瞬间的吗? 如果不是,在将块写入数据节点后,假设该数据节点上的磁盘发生故障且无法恢复,这是否意味着该块将永远丢 ...

如何删除 /hadoop/hdfs/journal/hdfsha/current/ 下的非常大的文件 - How to remove the very large files under /hadoop/hdfs/journal/hdfsha/current/

在我们的 HDP 集群中 - 版本 2.6.5,带有 ambari 平台我们注意到/hadoop/hdfs/journal/hdfsha/current/文件夹包含巨大的文件和超过 1000 个文件 为了最小化日志编辑日志,我们可以使用以下内容作为 HDFS ( hdfs-site.xml ) 的一 ...

hadoop 集群具有活动备用名称节点 + 编辑日志中的间隙 - hadoop cluster with active standby namenode + gap in the edit log

我们有 ambari 集群,HDP 版本2.6.5 集群包括两个名称节点的管理(一个是活动的,一个是备用的) 和 65 台数据节点机器我们对未启动的备用名称节点有问题,从名称节点日志中我们可以看到以下内容 目前活动的名称节点已启动,但备用名称节点已关闭 关于 解决此问题的首选解决方案是什么? ...

为什么 Impala 花费大量时间打开 HDFS 文件 (TotalRawHdfsOpenFileTime)? - Why Impala spend a lot of time Opening HDFS File (TotalRawHdfsOpenFileTime)?

我发现我的 Impala swarm 性能不稳定,一般只需要几秒(不到 10 秒)就可以完成一个查询,但偶尔会超过 40 秒(这种情况会持续几分钟),而当那个碰巧,根据配置文件,TotalRawHdfsOpenFileTime 非常高,这意味着大部分时间都花在打开 HDFS 文件上。 那么可能的原 ...

GCP Dataproc 节点中没有资源来启动新的 SparkSession - No resources in GCP Dataproc node to start new SparkSession

我正在处理一个用例,我必须处理大量数据(多个表),并且我试图将其作为批处理作业提交给 Dataproc 集群(PySpark)。 我的代码看起来像这样from pyspark import SparkContext from pyspark.sql import SQLContext from p ...

hdfs + namenode + 编辑文件越来越大以及如何限制编辑文件的大小 - hdfs + namenode + edit files increasing with huge size and how to limit the size of edit files

我们有 7 台数据节点机器的 HDP 集群在/hadoop/hdfs/namenode/current/下我们可以看到超过1500个编辑文件,每个文件大约7M到20M ,如下所示 是否可以通过一些HDFS配置来最小化文件大小? (或最小化编辑文件数量)因为我们有小磁盘并且磁盘现在是100% ...

kerberized Hadoop 环境中的 Spark 并启用了高可用性:Spark SQL 只能在写入任务后读取数据 - Spark in kerberized Hadoop environment and High Availability enabled: Spark SQL can only read data after write task

我们使用了 Kerberized Hadoop 环境(HDP 3.1.4 与 Spark 2.3.2 和 Ambari 2.7.4)很长一段时间,到目前为止一切顺利。 现在我们启用了 NameNode 高可用性并遇到以下问题:当我们想使用 Spark SQL 读取数据时,我们首先必须写入一些(其他) ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM