繁体   English   中英

在 Pyspark 中读取和保存图像文件

[英]Reading and Saving Image File in Pyspark

我需要从 S3 存储桶中读取图像并将其转换为 base64 编码格式。

我能够从 S3 读取图像文件,但是当我在 base64 方法中传递 S3 文件路径时,它无法识别该路径。

所以我想我会将图像 dataframe (与图像相同)保存在集群的临时路径中,然后在 base64 方法中传递路径。

但是在保存图像 dataframe 时出现以下错误:(最初我尝试使用“图像”格式保存图像 dataframe 但在 Google 我发现这种格式存在错误,有人建议使用以下格式

java.lang.ClassNotFoundException: Failed to find data source: org.apache.spark.ml.source.image.PatchedImageFileFormat.

请在下面查看我的示例代码,并告诉我在哪里可以找到相关的 package

spark._jsc.hadoopConfiguration().set('fs.s3a.access.key', '************')
spark._jsc.hadoopConfiguration().set('fs.s3a.secret.key', '************')
spark._jsc.hadoopConfiguration().set('fs.s3a.endpoint', '************')

def getImageStr(img):
  with open(img, "rb") as imageFile:
     str1 = base64.b64encode(imageFile.read())
     str2 = str(str1, 'utf-8')
  return str2

img_df = spark.read\
  .format("image")\
  .load("s3a://xxx/yyy/zzz/hello.jpg")

img_df.printSchema()


img_df.write\
    .format("org.apache.spark.ml.source.image.PatchedImageFileFormat")\
    .save("/tmp/sample.jpg")

img_str = getImageStr("/tmp/sample.jpg")

print(img_str)

如果有任何其他方式可以从 Spark 中的 S3 下载图像文件,请告诉我(不使用 boto3 package

当您使用image数据源时,您将获得带有image列的 dataframe,其中有一个二进制有效负载 - image.data包含实际图像。 然后您可以使用内置的 function base64对该列进行编码,您可以将编码表示写入文件。 像这样的东西(未经测试):

from pyspark.sql.functions import base64, col
img_df = spark.read.format("image").load("s3a://xxx/yyy/zzz/hello.jpg")
proc_df = img_df.select(base64(col("image.data")).alias('encoded')
proc_df.coalesce(1).write.format("text").save('/tmp/sample.jpg')

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM