我来自熊猫的背景,我习惯了从CSV文件读取数据到一个dataframe,然后简单地改变列名使用简单的命令有用的东西:
df.columns = new_column_name_list
然而,这在使用sqlContext创建的PySpark数据框架中是行不通的。
我能想到的唯一解决办法是:
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)
这基本上是定义变量两次,首先推断模式,然后重命名列名,然后用更新的模式再次加载数据框架。
有没有更好更有效的方法来做到这一点,就像我们对熊猫做的那样?
我的Spark版本是1.5.0
您可以使用以下函数重命名数据框架的所有列。
def df_col_rename(X, to_rename, replace_with):
"""
:param X: spark dataframe
:param to_rename: list of original names
:param replace_with: list of new names
:return: dataframe with updated names
"""
import pyspark.sql.functions as F
mapping = dict(zip(to_rename, replace_with))
X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
return X
如果你只需要更新几个列名,你可以在replace_with列表中使用相同的列名
重命名所有列
df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])
重命名一些列
df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])
我做了一个易于使用的函数来重命名pyspark dataframe的多个列,
如果有人想使用它:
def renameCols(df, old_columns, new_columns):
for old_col,new_col in zip(old_columns,new_columns):
df = df.withColumnRenamed(old_col,new_col)
return df
old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)
注意,两个列表的长度必须相同。
最简单的解决方案是使用withcolumnrename:
renamed_df = df.withColumnRenamed(‘name_1’, ‘New_name_1’).withColumnRenamed(‘name_2’, ‘New_name_2’)
renamed_df.show()
如果你想这样做,就像我们对Pandas做的那样,你可以使用toDF:
创建一个新列的顺序列表并将其传递给toDF
df_list = ["newName_1", “newName_2", “newName_3", “newName_4"]
renamed_df = df.toDF(*df_list)
renamed_df.show()