[英]How to add column with constant in Spark-java data frame
我已經進口了
import org.apache.spark.sql.Column;
import org.apache.spark.sql.functions;
在我的Java-Spark驅動程序中
但
DataFrame inputDFTwo = hiveContext.sql("select * from sourcing_src_tbl");
inputDFTwo.withColumn("asofdate", lit("2016-10-2"));
這里“點亮”仍然在eclipse(windows)中顯示錯誤。我應該包含哪些庫才能使其正常工作。
像你知道的那樣導入對象並使用它來訪問方法:
import org.apache.spark.sql.functions;
df.withColumn("foo", functions.lit(1));
或直接使用import static
和call方法:
import static org.apache.spark.sql.functions.lit;
df.withColumn("foo", lit(1));
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.