繁体   English   中英

使用 org.apache.hadoop:hadoop-aws 从 pyspark 中的 s3 读取文件

[英]Reading file from s3 in pyspark using org.apache.hadoop:hadoop-aws

尝试使用 hadoop-aws 从 s3 读取文件,用于运行代码的命令如下所述。 请帮助我解决这个问题并了解我做错了什么。

# run using command
# time spark-submit --packages org.apache.hadoop:hadoop-aws:3.2.1 connect_s3_using_keys.py

from pyspark import SparkContext, SparkConf
import ConfigParser
import pyspark

# create Spark context with Spark configuration
conf = SparkConf().setAppName("Deepak_1ST_job")
sc = SparkContext(conf=conf)
sc.setLogLevel("ERROR")

hadoop_conf = sc._jsc.hadoopConfiguration()

config = ConfigParser.ConfigParser()
config.read("/home/deepak/Desktop/secure/awsCred.cnf")
accessKeyId = config.get("aws_keys", "access_key")
secretAccessKey = config.get("aws_keys", "secret_key")

hadoop_conf.set(
    "fs.s3n.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")
hadoop_conf.set("fs3a.access.key", accessKeyId)
hadoop_conf.set("s3a.secret.key", secretAccessKey)

sqlContext = pyspark.SQLContext(sc)

df = sqlContext.read.json("s3a://bucket_name/logs/20191117log.json")
df.show()

编辑 1:

由于我是 pyspark 的新手,我不知道这些依赖关系,而且错误也不容易理解。

得到错误作为

File "/home/deepak/spark/spark-3.0.0-preview-bin-hadoop3.2/python/lib/pyspark.zip/pyspark/sql/utils.py", line 98, in deco
  File "/home/deepak/spark/spark-3.0.0-preview-bin-hadoop3.2/python/lib/py4j-0.10.8.1-src.zip/py4j/protocol.py", line 328, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o28.json.
: java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;Ljava/lang/Object;)V
        at org.apache.hadoop.fs.s3a.S3AUtils.lookupPassword(S3AUtils.java:816)
        at org.apache.hadoop.fs.s3a.S3AUtils.lookupPassword(S3AUtils.java:792)
        at org.apache.hadoop.fs.s3a.S3AUtils.getAWSAccessKeys(S3AUtils.java:747)
        at org.apache.hadoop.fs.s3a.SimpleAWSCredentialsProvider.

我在 spark 3.0.0 / hadoop 3.2 上遇到了同样的问题。

对我hadoop-aws-3.2.1.jar是用这里找到的hadoop-aws-3.2.1.jar替换spark-3.0.0-bin-hadoop3.2/jars中的hadoop-aws-3.2.0.jarhttps://mvnrepository。 com/artifact/org.apache.hadoop/hadoop-aws/3.2.0

检查您的 spark guava jar 版本。 如果您像我一样从链接( https://aws-glue-etl-artifacts.s3.amazonaws.com/glue-3.0/spark-3.1.1-amzn-0-bin-3.2.1- amzn-3.tgz )在他们的文档中。 可以看到include guava的版本是guava-14.0.1.jar,他们的容器使用的是guava-21.0.jar

我已经向他们报告了这个问题,他们将重新打包他们的 spark 以包含正确的版本。 如果你对 bug 感兴趣,这里是链接。 https://hadoop.apache.org/docs/r3.2.0/hadoop-aws/tools/hadoop-aws/troubleshooting_s3a.html#ClassNotFoundException:_org.apache.hadoop.fs.s3a.S3AFileSystem

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM