[英]Apply function to spark RDD
我正在尝试对推文进行一些分析。 我想将.lower()
应用于推text
中的每个text
。 我用下面的代码
actual_tweets = actual_tweets.map(lambda line: line["text"].lower() and line["quoted_status"]["text"].lower() if 'quoted_status' in line else line["text"].lower()).collect()
问题是因为我正在使用map
,所以这行代码将text
属性转换为小写,并向我返回忽略所有其他属性的唯一text
属性,这不是我想要的。 我只是想知道spark transformations
帮助我实现我想要的目标。
例如,您可以返回一个元组(输入,transformed_input):
def transform(line):
if 'quoted_status' in line:
return (
# Is `and` what you really want here?
line, line["text"].lower() and line["quoted_status"]["text"].lower()
)
else:
return line, line["text"].lower()
actual_tweets.map(transform)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.