[英]How to add an entire list contents into a Pyspark Dataframe row?
我正在从字符串列表中创建一个新的pyspark数据框。 我的代码应如何显示?
这是我的列表:['there','is','one','that','commands],这是我理想中想要的:
第1行:['there','is','one','that','commands]第2行:['test','try'
我已经尝试了以下代码,但是没有一个能给我我想要的。
test_list=['hi','bye','thanks']
test_list=sc.parallelize(test_list)
schema = StructType([StructField("name", StringType(), True)])
df3 = sqlContext.createDataFrame(test_list, schema)
和
test_list=['hi','bye','thanks']
test_list=sc.parallelize(test_list)
df3 = sqlContext.createDataFrame(row(test_list), schema)
我无法使用df.show()显示数据框。
您只需要导入Row对象,就可以了。
from pyspark.sql.types import Row, StructType, StructField, StringType
test_list=['hi','bye','thanks']
test_list=sc.parallelize(test_list)
rdd= test_list.map(lambda t: Row(name=t))
schema = StructType([StructField("name", StringType(), True)])
df = sqlContext.createDataFrame(rdd, schema)
df.show()
+------+
| name|
+------+
| hi|
| bye|
|thanks|
+------+
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.