pyspark에서 데이터 프레임 열 이름을 변경하는 방법은 무엇입니까?


201

팬더 배경에서 왔으며 CSV 파일의 데이터를 데이터 프레임으로 읽은 다음 간단한 명령을 사용하여 열 이름을 유용한 것으로 변경하는 데 익숙합니다.

df.columns = new_column_name_list

그러나 sqlContext를 사용하여 생성 된 pyspark 데이터 프레임에서도 동일하게 작동하지 않습니다. 이 작업을 쉽게 수행 할 수있는 유일한 해결책은 다음과 같습니다.

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

기본적으로 변수를 두 번 정의하고 스키마를 먼저 유추 한 다음 열 이름을 바꾸고 업데이트 된 스키마로 데이터 프레임을 다시로드합니다.

우리가 판다에서하는 것처럼 더 좋고 효율적인 방법이 있습니까?

내 스파크 버전은 1.5.0입니다

답변:


334

여러 가지 방법이 있습니다.

  • 옵션 1. 사용 selectExpr을 .

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
    
  • 옵션 2. withColumnRenamed를 사용하면 이 방법으로 같은 열을 "덮어 쓸 수 있습니다". Python3를 들어, 교체 xrange와 함께 range.

    from functools import reduce
    
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
    
  • 사용 옵션 3. 별명은 스칼라에서 당신은 또한 사용할 수 있습니다 .

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
  • 옵션 4. sqlContext.sql 사용 DataFrames: 테이블로 등록 된 SQL 쿼리를 사용할 수 있습니다 .

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    

1
나는 그것을 한 for루프 + withColumnRenamed,하지만 reduce옵션은 : 아주 좋은
펠리페 제라드

1
DF에서 액션이 호출 될 때까지 Spark에서는 아무 것도 수행되지 않기 때문에 코드가 덜 우아합니다. 결국 결과 DF는 정확히 동일합니다!
Felipe Gerard

2
@FelipeGerard 이 게시물을 확인하십시오 . 열이 많은 경우 나쁜 일이 발생할 수 있습니다.
Alberto Bonsanto

1
@AlbertoBonsanto 가장 좋은 옵션 인 100 개가 넘는 열이있는 경우 열을 별칭으로 선택하는 방법

3
@NuValue, 당신은 먼저 실행from functools import reduce
joaofbsm 5

171
df = df.withColumnRenamed("colName", "newColName")\
       .withColumnRenamed("colName2", "newColName2")

이 방법을 사용할 때의 장점 : 열 목록이 길면 몇 개의 열 이름 만 변경하려고합니다. 이 시나리오에서는 매우 편리 할 수 ​​있습니다. 중복 열 이름을 가진 테이블을 조인 할 때 매우 유용합니다.


다른 모든 열을 변경하지 않은 채로이 솔루션의 변형이 있습니까? 이 방법, 다른 사람과 만 명시 적으로 명명 된 열은 (다른 모든 제거) 유지
케찰코아틀

1
+1 그것은 나를 위해 잘 작동했습니다. 지정된 열을 편집하여 다른 열을 변경하지 않고 열을 제거하지 않았습니다.
mnis.p

2
@Quetzalcoatl이 명령은 다른 모든 열을 유지하면서 지정된 열만 변경하는 것으로 나타납니다. 따라서 잠재적으로 많은 열 이름 중 하나의 이름 만 바꾸는 훌륭한 명령
user989762

@ user989762 : 동의 함; 내 초기 이해가 이것에 대해 잘못되었습니다 ...!
Quetzalcoatl

62

모든 열 이름을 변경하려면 시도하십시오 df.toDF(*cols)


5
이 솔루션은 간결하고 실행 방식에 따라 OP 당 df.columns = new_column_name_list에 가장 가깝습니다.
Quetzalcoatl

이것이 최고의 답변으로 선택되어야한다고 생각합니다
HanaKaze

나를 위해 팬더 데이터 프레임에서 헤더 이름을 얻고 있었기 때문에 방금 사용했습니다df = df.toDF(*my_pandas_df.columns)
Nic Scozzaro

이 대답은 나를 혼란스럽게합니다. 이전 열 이름에서 새 이름으로의 매핑이 없어야합니까? 이것은 cols새로운 열 이름이되고 이름 cols순서가 데이터 프레임의 열 순서 에 해당 한다고 가정하면 작동합니까 ?
rbatt

47

모든 열 이름에 간단한 변환을 적용하려는 경우이 코드는 트릭을 수행합니다. (모든 공백을 밑줄로 바꿉니다)

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

toDf트릭을 위한 @ user8117731에게 감사합니다 .


14

단일 열의 이름을 바꾸고 나머지 열을 그대로 유지하려면 다음을 수행하십시오.

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])

14

df.withColumnRenamed('age', 'age2')


1
Pankaj Kumar의 답변Alberto Bonsanto의 답변 (각각 2016 년과 2015 년)은 이미 withColumnRenamed.
앤드류 마이어스

고마워요.하지만 몇 가지 다른 구문이 있습니다. 좀 더 공식적인 답변으로 수집해야합니까? data.withColumnRenamed (oldColumns [IDX, newColumns [IDX]) data.withColumnRenamed (럼 이름, 새로운 기둥 이름) 내가 그것을 따라 생각 대 pyspark의 버전을 사용자의 사용에
Sahan Jayasumana

1
이것은 다른 구문이 아닙니다. 유일한 차이점은 열 이름을 배열에 저장하지 않았다는 것입니다.
Ed Bordin

13

이것이 내가 사용한 접근법입니다.

pyspark 세션을 작성하십시오.

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

데이터 프레임 생성 :

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

열 이름으로 df보기 :

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

새로운 열 이름으로 목록을 작성하십시오.

newcolnames = ['NameNew','AmountNew','ItemNew']

df의 열 이름을 변경하십시오.

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

새로운 열 이름으로 df보기 :

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+

9

누구나 사용하기를 원하는 경우 pyspark 데이터 프레임의 여러 열 이름을 바꾸는 기능을 사용하기 쉽게 만들었습니다.

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

두 목록의 길이는 같아야합니다.


1
이것에 좋은 일. 그래도 필요한 것에 약간의 잔인 함. 때문에 당신은 단지 DF를 전달할 수 old_columns와 동일 할 것입니다 df.columns.
Darth Egregious

7

한 열의 이름을 바꾸는 또 다른 방법 (을 사용하여 import pyspark.sql.functions as F) :

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')

3

나는 이것을 사용한다 :

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()

2
이 코드 스 니펫은 문제를 해결할 수 있지만 설명을 포함하면 게시물의 품질을 향상시키는 데 실제로 도움이됩니다. 앞으로 독자들에게 질문에 대한 답변을 제공하므로 해당 사람들이 코드 제안의 이유를 모를 수도 있습니다.
Isma

1

다음 함수를 사용하여 데이터 프레임의 모든 열 이름을 바꿀 수 있습니다.

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X

몇 개의 열 이름 만 업데이트해야하는 경우 replace_with 목록에서 동일한 열 이름을 사용할 수 있습니다

모든 열의 이름을 바꾸려면

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])

일부 열의 이름을 바꾸려면

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])

0

단일 열 이름 바꾸기의 경우에도 toDF ()를 사용할 수 있습니다. 예를 들어

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()

0

다양한 접근 방식을 사용하여 열 이름의 이름을 바꿀 수 있습니다.

먼저 간단한 DataFrame을 만듭니다.

df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                  ["col_1", "col_2"])

이제 col_1의 이름을 col_3으로 바꾸어 봅시다. PFB도 같은 방법으로 접근합니다.

# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()

# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()

# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()

# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()

출력은 다음과 같습니다.

+-----+-----+
|col_3|col_2|
+-----+-----+
|    x|    1|
|    y|    2|
+-----+-----+

이게 도움이 되길 바란다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.