繁体   English   中英

将 Spark DataFrame 写入 Redis 时如何提高速度?

[英]How to increase speed when writing Spark DataFrame to Redis?

我正在开发基于 Flask 的书籍推荐 API,发现要管理多个请求,我需要预先计算相似度矩阵并将其存储在某处以供将来查询。 这个矩阵是使用 PySpark 基于约 150 万个具有书籍 ID、名称和元数据的数据库条目创建的,结果可以用这个模式来描述( ij用于书籍索引, dot表示它们的元数据的相似性):

StructType(List(StructField(i,IntegerType,true),StructField(j,IntegerType,true),StructField(dot,DoubleType,true)))

最初,我打算使用 spark-redis 连接器将其存储在 Redis 上。 但是,以下命令似乎以非常慢的速度运行(即使初始书籍数据库查询大小限制为非常适中的 40k 批处理):

similarities.write.format("org.apache.spark.sql.redis").option("table", "similarities").option("key.column", "i").save()

Spark 将初始任务分为 9 个阶段中的 3 个,大约需要 6 个小时。 奇怪的是,Spark 执行器对存储 memory 的使用率非常低,大约 20kb。 Spark 应用程序 UI 描述了一个典型的阶段活动阶段:

org.apache.spark.sql.DataFrameWriter.save(DataFrameWriter.scala:271)
sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
java.lang.reflect.Method.invoke(Method.java:498)
py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
py4j.Gateway.invoke(Gateway.java:282)
py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
py4j.commands.CallCommand.execute(CallCommand.java:79)
py4j.GatewayConnection.run(GatewayConnection.java:238)
java.lang.Thread.run(Thread.java:748)

是否有可能以某种方式加快这个过程? 我的 Spark session 是这样设置的:

SUBMIT_ARGS = "  --driver-memory 2G --executor-memory 2G --executor-cores 4 --packages mysql:mysql-connector-java:5.1.39 pyspark-shell"
os.environ["PYSPARK_SUBMIT_ARGS"] = SUBMIT_ARGS
conf = SparkConf().set("spark.jars", "spark-redis/target/spark-redis_2.11-2.4.3-SNAPSHOT-jar-with-dependencies.jar").set("spark.executor.memory", "4g")
sc = SparkContext('local','example', conf=conf) 
sql_sc = SQLContext(sc)

您可以尝试使用Append保存模式来避免检查表中是否已经存在数据:

similarities.write.format("org.apache.spark.sql.redis").option("table", "similarities").mode('append').option("key.column", "i").save()

此外,您可能想要更改

sc = SparkContext('local','example', conf=conf) 

sc = SparkContext('local[*]','example', conf=conf) 

利用您机器上的所有内核。

顺便说一句,在 Redis 中使用i作为键是否正确? 它不应该是ij的组合吗?

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM