[英]pyspark createDataframe typeerror: structtype can not accept object 'id' in type <class 'str'>
[英]Pyspark DataframeType error a: DoubleType can not accept object 'a' in type <class 'str'>
我有这个 function
customSchema = StructType([ \
StructField("a", Doubletype(), True), \
StructField("b", Doubletype(), True),
StructField("c", Doubletype(), True),
StructField("d", Doubletype(), True)])
n_1= sc.textFile("/path/*.txt")\
.mapPartitions(lambda partition: csv.reader([line.replace('\0','') for line in partition],delimiter=';', quotechar='"')).filter(lambda line: len(line) > 1 )\
.toDF(customSchema)
这将创建一个 Dataframe,问题是 '.mapPartitions' 将用作默认类型 <class 'str'> 我需要在将其转换为 Dataframe 之前将其转换为 DoubleType。 任何想法?
样本数据
[['0,01', '344,01', '0,00', '0,00']]
或者只是与
n_1= sc.textFile("/path/*.txt")\
.mapPartitions(lambda partition: csv.reader([line.replace('\0','') for line in partition],delimiter=';', quotechar='"')).filter(lambda line: len(line) > 1 )\
首先,需要收集所有元素并使用第二个选项创建一个矩阵(列表列表)。
n_1= sc.textFile("/path/*.txt")\
.mapPartitions(lambda partition: csv.reader([line.replace('\0','') for line in partition],delimiter=';', quotechar='"')).filter(lambda line: len(line) > 1 )\
matrix = n_1.collect()
一旦我们有了这个,就必须知道哪种类型的数据进入子列表(在我的例子中是'str')。
matrix =[[x.replace(',', '.') for x in i] for i in matrix ] # replace ',' for '.' in order to perform the data type convertion
matrix = [[float(str(x)) for x in i] for i in matrix ] #convert every sublist element into float
df = sc.parallelize(matrix).toDF()
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.