[英]Which DataFrame column names in other DataFrame column names in pyspark
[英]How to change dataframe column names in PySpark?
我來自 pandas 背景,習慣於將 CSV 文件中的數據讀取到 dataframe 中,然后使用簡單命令將列名稱簡單地更改為有用的名稱:
df.columns = new_column_name_list
但是,這在使用 sqlContext 創建的 PySpark 數據幀中不起作用。 我能想到的唯一解決方案是輕松地做到這一點:
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)
這基本上是定義變量兩次並首先推斷模式,然后重命名列名,然后使用更新的模式再次加載 dataframe。
有沒有像我們在 pandas 中那樣更好更高效的方法呢?
我的 Spark 版本是 1.5.0
有很多方法可以做到這一點:
選項 1. 使用selectExpr 。
data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], ["Name", "askdaosdka"]) data.show() data.printSchema() # Output #+-------+----------+ #| Name|askdaosdka| #+-------+----------+ #|Alberto| 2| #| Dakota| 2| #+-------+----------+ #root # |-- Name: string (nullable = true) # |-- askdaosdka: long (nullable = true) df = data.selectExpr("Name as name", "askdaosdka as age") df.show() df.printSchema() # Output #+-------+---+ #| name|age| #+-------+---+ #|Alberto| 2| #| Dakota| 2| #+-------+---+ #root # |-- name: string (nullable = true) # |-- age: long (nullable = true)
選項 2. 使用withColumnRenamed ,請注意此方法允許您“覆蓋”同一列。 對於 Python3,將xrange
替換為range
。
from functools import reduce oldColumns = data.schema.names newColumns = ["name", "age"] df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data) df.printSchema() df.show()
選項 3. 使用alias ,在 Scala 中你也可以使用as 。
from pyspark.sql.functions import col data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age")) data.show() # Output #+-------+---+ #| name|age| #+-------+---+ #|Alberto| 2| #| Dakota| 2| #+-------+---+
選項 4. 使用sqlContext.sql ,它允許您在注冊為表的DataFrames
上使用 SQL 查詢。
sqlContext.registerDataFrameAsTable(data, "myTable") df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable") df2.show() # Output #+-------+---+ #| name|age| #+-------+---+ #|Alberto| 2| #| Dakota| 2| #+-------+---+
df = df.withColumnRenamed("colName", "newColName")\
.withColumnRenamed("colName2", "newColName2")
使用這種方式的優點:對於一長列列,您只想更改幾個列名。 這在這些場景中非常方便。 連接具有重復列名的表時非常有用。
如果要更改所有列名稱,請嘗試df.toDF(*cols)
如果您想對所有列名應用簡單的轉換,此代碼可以解決問題:(我用下划線替換所有空格)
new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))
df = df.toDF(*new_column_name_list)
感謝 @user8117731 的toDf
技巧。
如果要重命名單個列並將其余列保持原樣:
from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
df.withColumnRenamed('age', 'age2')
這是我使用的方法:
創建 pyspark 會話:
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()
創建數據框:
df = spark.createDataFrame(data = [('Bob', 5.62,'juice'), ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
使用列名查看 df:
df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob| 5.62|juice|
| Sue| 0.85| milk|
+----+------+-----+
創建一個具有新列名的列表:
newcolnames = ['NameNew','AmountNew','ItemNew']
更改 df 的列名:
for c,n in zip(df.columns,newcolnames):
df=df.withColumnRenamed(c,n)
使用新的列名查看 df:
df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
| Bob| 5.62| juice|
| Sue| 0.85| milk|
+-------+---------+-------+
我做了一個易於使用的函數來重命名 pyspark 數據框的多列,以防有人想使用它:
def renameCols(df, old_columns, new_columns):
for old_col,new_col in zip(old_columns,new_columns):
df = df.withColumnRenamed(old_col,new_col)
return df
old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)
請注意,兩個列表的長度必須相同。
另一種重命名列的方法(使用import pyspark.sql.functions as F
):
df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
您可以使用以下函數重命名數據框的所有列。
def df_col_rename(X, to_rename, replace_with):
"""
:param X: spark dataframe
:param to_rename: list of original names
:param replace_with: list of new names
:return: dataframe with updated names
"""
import pyspark.sql.functions as F
mapping = dict(zip(to_rename, replace_with))
X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
return X
如果您只需要更新幾列的名稱,您可以在 replace_with 列表中使用相同的列名
重命名所有列
df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])
重命名一些列
df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])
我用這個:
from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()
我們可以使用各種方法來重命名列名。
首先,讓我們創建一個簡單的 DataFrame。
df = spark.createDataFrame([("x", 1), ("y", 2)],
["col_1", "col_2"])
現在讓我們嘗試將 col_1 重命名為 col_3。 PFB 有幾種方法可以做到這一點。
# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()
# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()
# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()
# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()
這是輸出。
+-----+-----+
|col_3|col_2|
+-----+-----+
| x| 1|
| y| 2|
+-----+-----+
我希望這有幫助。
您可以放入 for 循環,並使用 zip 將兩個數組中的每個列名配對。
new_name = ["id", "sepal_length_cm", "sepal_width_cm", "petal_length_cm", "petal_width_cm", "species"]
new_df = df
for old, new in zip(df.columns, new_name):
new_df = new_df.withColumnRenamed(old, new)
方法一:
df = df.withColumnRenamed("new_column_name", "old_column_name")
方法 2:如果要進行一些計算並重命名新值
df = df.withColumn("old_column_name", F.when(F.col("old_column_name") > 1, F.lit(1)).otherwise(F.col("old_column_name"))
df = df.drop("new_column_name", "old_column_name")
我喜歡使用 dict 來重命名 df。
rename = {'old1': 'new1', 'old2': 'new2'}
for col in df.schema.names:
df = df.withColumnRenamed(col, rename[col])
對於單列重命名,您仍然可以使用 toDF()。 例如,
df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()
您可以使用多種方法:
df1=df.withColumn("new_column","old_column").drop(col("old_column"))
df1=df.withColumn("new_column","old_column")
df1=df.select("old_column".alias("new_column"))
from pyspark.sql.types import StructType,StructField, StringType, IntegerType
CreatingDataFrame = [("James","Sales","NY",90000,34,10000),
("Michael","Sales","NY",86000,56,20000),
("Robert","Sales","CA",81000,30,23000),
("Maria","Finance","CA",90000,24,23000),
("Raman","Finance","CA",99000,40,24000),
("Scott","Finance","NY",83000,36,19000),
("Jen","Finance","NY",79000,53,15000),
("Jeff","Marketing","CA",80000,25,18000),
("Kumar","Marketing","NY",91000,50,21000)
]
schema = StructType([ \
StructField("employee_name",StringType(),True), \
StructField("department",StringType(),True), \
StructField("state",StringType(),True), \
StructField("salary", IntegerType(), True), \
StructField("age", StringType(), True), \
StructField("bonus", IntegerType(), True) \
])
OurData = spark.createDataFrame(data=CreatingDataFrame,schema=schema)
OurData.show()
# COMMAND ----------
GrouppedBonusData=OurData.groupBy("department").sum("bonus")
# COMMAND ----------
GrouppedBonusData.show()
# COMMAND ----------
GrouppedBonusData.printSchema()
# COMMAND ----------
from pyspark.sql.functions import col
BonusColumnRenamed = GrouppedBonusData.select(col("department").alias("department"), col("sum(bonus)").alias("Total_Bonus"))
BonusColumnRenamed.show()
# COMMAND ----------
GrouppedBonusData.groupBy("department").count().show()
# COMMAND ----------
GrouppedSalaryData=OurData.groupBy("department").sum("salary")
# COMMAND ----------
GrouppedSalaryData.show()
# COMMAND ----------
from pyspark.sql.functions import col
SalaryColumnRenamed = GrouppedSalaryData.select(col("department").alias("Department"), col("sum(salary)").alias("Total_Salary"))
SalaryColumnRenamed.show()
一種可以使用“別名”更改列名的方法:
col('my_column').alias('new_name')
您可以使用“別名”的另一種方式(可能未提及):
df.my_column.alias('new_name')
試試下面的方法。 以下方法可以讓您重命名多個文件的列
參考: https ://www.linkedin.com/pulse/pyspark-methods-rename-columns-kyle-gibson/
df_initial = spark.read.load('com.databricks.spark.csv')
rename_dict = {
'Alberto':'Name',
'Dakota':'askdaosdka'
}
df_renamed = df_initial \
.select([col(c).alias(rename_dict.get(c, c)) for c in df_initial.columns])
rename_dict = {
'FName':'FirstName',
'LName':'LastName',
'DOB':'BirthDate'
}
return df.select([col(c).alias(rename_dict.get(c, c)) for c in df.columns])
df_renamed = spark.read.load('/mnt/datalake/bronze/testData') \
.transform(renameColumns)
最簡單的解決方案是使用withColumnRenamed
:
renamed_df = df.withColumnRenamed(‘name_1’, ‘New_name_1’).withColumnRenamed(‘name_2’, ‘New_name_2’)
renamed_df.show()
如果您想像我們使用 Pandas 那樣執行此操作,您可以使用toDF
:
創建新列列表的順序並將其傳遞給
toDF
df_list = ["newName_1", “newName_2", “newName_3", “newName_4"]
renamed_df = df.toDF(*df_list)
renamed_df.show()
這是使用循環重命名多個列的簡單方法:
cols_to_rename = ["col1","col2","col3"]
for col in cols_to_rename:
df = df.withColumnRenamed(col,"new_{}".format(col))
列表理解+ f-string:
df = df.toDF(*[f'n_{c}' for c in df.columns])
簡單的列表理解:
df = df.toDF(*[c.lower() for c in df.columns])
最接近df.columns = new_column_name_list
的語句是:
import pyspark.sql.functions as F
df = df.select(*[F.col(name_old).alias(name_new)
for (name_old, name_new)
in zip(df.columns, new_column_name_list)]
這不需要任何很少使用的功能,並強調一些在 Spark 中非常有用的模式。 如果您發現這個單行代碼會做太多事情,您也可以分解這些步驟:
import pyspark.sql.functions as F
column_mapping = [F.col(name_old).alias(name_new)
for (name_old, name_new)
in zip(df.columns, new_column_name_list)]
df = df.select(*column_mapping)
f.withColumnRenamed('名稱', '重命名')
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.