[英]Creation of symlink from job logs to ${hadoop.tmp.dir} failed in hadoop multinode cluster setup
[英]is it right to limit cleaning /tmp each day in hadoop cluster
我们有 HDP 集群版本 – 2.6.4
集群安装在 redhat 机器版本 – 7.2
我们在 JournalNodes 机器(主机)上注意到以下问题
我们有 3 台 JournalNodes 机器,在 /tmp 文件夹下我们有数千个空文件夹作为
drwx------. 2 hive hadoop 6 Dec 20 09:00 a962c02e-4ed8-48a0-b4bb-79c76133c3ca_resources
还有很多文件夹
drwxr-xr-x. 4 hive hadoop 4096 Dec 12 09:02 hadoop-unjar6426565859280369566
内容为
beeline-log4j.properties BeeLine.properties META-INF org sql-keywords.properties
/tmp 应根据配置文件每 10 天清除一次:
more /usr/lib/tmpfiles.d/tmp.conf
# This file is part of systemd.
#
# systemd is free software; you can redistribute it and/or modify it
# under the terms of the GNU Lesser General Public License as published by
# the Free Software Foundation; either version 2.1 of the License, or
# (at your option) any later version.
# See tmpfiles.d(5) for details
# Clear tmp directories separately, to make them easier to override
v /tmp 1777 root root 10d
v /var/tmp 1777 root root 30d
# Exclude namespace mountpoints created with PrivateTmp=yes
x /tmp/systemd-private-%b-*
X /tmp/systemd-private-%b-*/tmp
x /var/tmp/systemd-private-%b-*
X /var/tmp/systemd-private-%b-*/tmp
You have new mail in /var/spool/mail/root
所以我们将保留减少到1d而不是10d以避免这个问题
然后确实/tmp只有一天的文件夹内容
但是我想问以下问题
是否可以将 Hadoop 集群中关于 /tmp 的保留时间配置为 1 天?
(我几乎可以肯定没问题,但想听听更多意见)
第二
为什么 HIVE 会生成数千个空文件夹作为 XXXX_resources ,
是否有可能从 HIVE 服务中解决它,而不是限制 /tmp 上的保留
只要仍有可用空间可用于正常运行,在 /tmp 中有数千个文件夹是很正常的。 许多进程都在使用/tmp,包括Hive、Pig 等。/tmp 的一天保留期可能太小了,因为通常Hive 或其他map-reduce 任务可以运行一天以上,尽管这取决于您的任务。 HiveServer 应该删除临时文件,但是当任务失败或中止时,这些文件可能会保留,这也取决于 Hive 版本。 最好配置一些保留,因为当 /tmp 中没有剩余空间时,一切都会停止工作。
另请阅读有关 HDFS 暂存目录保留的Jira 。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.