web-dev-qa-db-ja.com

Pysparkでデータフレームの列名を変更するにはどうすればいいですか?

私はパンダのバックグラウンドから来たもので、CSVファイルからデータフレームにデータを読み込んでから、単純なコマンドを使用して列名を便利なものに変更することに慣れています。

df.columns = new_column_name_list

ただし、sqlContextを使用して作成されたpysparkデータフレームでも同じことは機能しません。これを簡単に行うために私が考え出すことができる唯一の解決策は次のとおりです。

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

これは基本的に変数を2回定義し、最初にスキーマを推測し、次に列名を変更し、そして更新されたスキーマでデータフレームを再度ロードすることです。

私たちがパンダのようにこれを行うためのより良いそしてより効率的な方法はありますか?

私のスパークバージョンは1.5.0です

115

それには多くの方法があります。

  • オプション1。 selectExpr を使用します。

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
    
  • オプション2: withColumnRenamed を使用すると、このメソッドで同じ列を「上書き」できるようになります。

    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
    
  • オプション3. alias を使う、Scalaでは として使うこともできます。

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
  • オプション4: sqlContext.sql を使用すると、テーブルとして登録されたDataFramesに対してSQLクエリを使用できます。

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
228
df = df.withColumnRenamed("colName", "newColName")
       .withColumnRenamed("colName2", "newColName2")

この方法を使用する利点:列のリストが長い場合は、少数の列名だけを変更します。これは、これらのシナリオでは非常に便利です。重複する列名を持つテーブルを結合するときに非常に役立ちます。

106
Pankaj Kumar

すべての列名を変更したい場合は、df.toDF(*cols)を試してください。

32
user8117731

あなたがすべての列名に単純な変換を適用したい場合は、このコードはトリックを行います。

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

@ user8117731がtoDfのトリックをありがとう。

20
pbahr

単一の列の名前を変更して残りをそのままにしたい場合は、次のようにします。

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
7
Ratul Ghosh

df.withColumnRenamed('age', 'age2')

6

import pyspark.sql.functions as Fを使用して1つの列だけの名前を変更するもう1つの方法:

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
3
scottlittle

これが私が使ったアプローチです。

pysparkセッションを作成してください。

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

データフレームを作成します。

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

列名を付けてdfを表示します。

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

新しい列名を使ってリストを作成します。

newcolnames = ['NameNew','AmountNew','ItemNew']

dfの列名を変更します。

for c,n in Zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

新しい列名でdfを表示します。

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+
2
Grant Shannon

私はこれを使う:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()
2
mike

誰かがそれを使用したい場合に備えて、私はpysparkデータフレームのために複数のカラムの名前を変更するための使いやすい関数を作りました:

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in Zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

注意してください、両方のリストは同じ長さでなければなりません。

1
Manrique

単一列の名前変更では、toDF()を使用できます。例えば、

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()
0
user24225