Python Pandas로 열 비닝


99

숫자 값이있는 데이터 프레임 열이 있습니다.

df['percentage'].head()
46.5
44.2
100.0
42.12

빈 개수로 열을보고 싶습니다.

bins = [0, 1, 5, 10, 25, 50, 100]

어떻게 결과를 bin으로 얻을 수 value counts있습니까?

[0, 1] bin amount
[1, 5] etc 
[5, 10] etc 
......

답변:


186

다음을 사용할 수 있습니다 pandas.cut.

bins = [0, 1, 5, 10, 25, 50, 100]
df['binned'] = pd.cut(df['percentage'], bins)
print (df)
   percentage     binned
0       46.50   (25, 50]
1       44.20   (25, 50]
2      100.00  (50, 100]
3       42.12   (25, 50]

bins = [0, 1, 5, 10, 25, 50, 100]
labels = [1,2,3,4,5,6]
df['binned'] = pd.cut(df['percentage'], bins=bins, labels=labels)
print (df)
   percentage binned
0       46.50      5
1       44.20      5
2      100.00      6
3       42.12      5

또는 numpy.searchsorted:

bins = [0, 1, 5, 10, 25, 50, 100]
df['binned'] = np.searchsorted(bins, df['percentage'].values)
print (df)
   percentage  binned
0       46.50       5
1       44.20       5
2      100.00       6
3       42.12       5

... 그 다음 value_counts또는 groupby집계 size:

s = pd.cut(df['percentage'], bins=bins).value_counts()
print (s)
(25, 50]     3
(50, 100]    1
(10, 25]     0
(5, 10]      0
(1, 5]       0
(0, 1]       0
Name: percentage, dtype: int64

s = df.groupby(pd.cut(df['percentage'], bins=bins)).size()
print (s)
percentage
(0, 1]       0
(1, 5]       0
(5, 10]      0
(10, 25]     0
(25, 50]     3
(50, 100]    1
dtype: int64

기본적으로 cutreturn categorical.

Series같은 메소드 Series.value_counts()는 일부 카테고리가 데이터에 존재하지 않더라도 모든 카테고리를 사용하고 categorical 작업을 수행 합니다.


없이 bins = [0, 1, 5, 10, 25, 50, 100]5 개의 빈을 생성하면 평균 절단으로 절단 할 수 있습니까? 예를 들어 110 개의 레코드가 있는데 각 저장소에 22 개의 레코드가있는 5 개의 저장소로 잘라 내고 싶습니다.
qqqwww

2
@qqqwww-확실하지 않다면, 당신은 생각 qcut하십니까? 링크
jezrael 18:41에

이를 위해 @qqqwww, 페이지의 pd.cut 예제는 그것을 보여줍니다 : pd.cut (np.array ([1, 7, 5, 4, 6, 3]), 3) 배열을 3 등분으로 자릅니다.
Ayan Mitra

@jezreal 당신은 또한 각 빈의 평균을 계산하는 방법을 제안 할 수 있습니까?
Ayan Mitra

1
@AyanMitra-당신은 생각 df.groupby(pd.cut(df['percentage'], bins=bins)).mean()하십니까?
jezrael

4

numba속도 향상을 위해 모듈 사용 .

큰 데이터 세트에서 ( 500k >) pd.cut는 데이터 비닝에 대해 상당히 느릴 수 있습니다.

필자는 numbaJIT (just in time) 컴파일로 내 자신의 함수를 작성 했는데, 대략적으로 16x더 빠릅니다.

from numba import njit

@njit
def cut(arr):
    bins = np.empty(arr.shape[0])
    for idx, x in enumerate(arr):
        if (x >= 0) & (x < 1):
            bins[idx] = 1
        elif (x >= 1) & (x < 5):
            bins[idx] = 2
        elif (x >= 5) & (x < 10):
            bins[idx] = 3
        elif (x >= 10) & (x < 25):
            bins[idx] = 4
        elif (x >= 25) & (x < 50):
            bins[idx] = 5
        elif (x >= 50) & (x < 100):
            bins[idx] = 6
        else:
            bins[idx] = 7

    return bins
cut(df['percentage'].to_numpy())

# array([5., 5., 7., 5.])

선택 사항 : 문자열로 bin에 매핑 할 수도 있습니다.

a = cut(df['percentage'].to_numpy())

conversion_dict = {1: 'bin1',
                   2: 'bin2',
                   3: 'bin3',
                   4: 'bin4',
                   5: 'bin5',
                   6: 'bin6',
                   7: 'bin7'}

bins = list(map(conversion_dict.get, a))

# ['bin5', 'bin5', 'bin7', 'bin5']

속도 비교 :

# create dataframe of 8 million rows for testing
dfbig = pd.concat([df]*2000000, ignore_index=True)

dfbig.shape

# (8000000, 1)
%%timeit
cut(dfbig['percentage'].to_numpy())

# 38 ms ± 616 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
%%timeit
bins = [0, 1, 5, 10, 25, 50, 100]
labels = [1,2,3,4,5,6]
pd.cut(dfbig['percentage'], bins=bins, labels=labels)

# 215 ms ± 9.76 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.