简体   繁体   English

Spark / Hdfs / Hdfs-客户端兼容性

[英]Spark / Hdfs / Hdfs-client compatibility

I'm running a hdfs cluster based hdfs version 2.9.1.我正在运行基于 hdfs 版本 2.9.1 的 hdfs 集群。 This cluster is used by Spark (built against hdfs client 2.9.1) and standalone scala/java programs that use hdfs-client 2.9.1 as well. Spark(针对 hdfs 客户端 2.9.1 构建)和使用 hdfs-client 2.9.1 的独立 scala/java 程序使用此集群。

I want to gradually upgrade the setup to hdfs 3. .我想逐步将设置升级到 hdfs 3. . without breaking too much.没有破坏太多。 I haven't found an approachable guide on compatibility between hdfs server and hdfs client.我还没有找到关于 hdfs 服务器和 hdfs 客户端之间兼容性的平易近人的指南。

Is it possible to upgrade first hdfs client and then hdfs file system?是否可以先升级 hdfs 客户端,然后升级 hdfs 文件系统? Or the other way around?还是反过来?

It depends on API you use.这取决于您使用的 API。 Hadoop classes and interfaces are classified 1 with annotations, either Stable , Evolving , Unstable , Deprecated . Hadoop 类和接口被分类为1 ,带有注释, StableEvolvingUnstableDeprecated

Stable API is safe to use, since it's not expected to be removed until Hadoop 4.0.0 2 . Stable的 API 可以安全使用,因为预计在 Hadoop 4.0.0 2之前不会将其移除。

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM