데이터를 3 세트 (트레인, 검증 및 테스트)로 나누는 방법은 무엇입니까?


146

팬더 데이터 프레임이 있으며 3 개의 별도 세트로 나누고 싶습니다. train_test_split from 을 사용 sklearn.cross_validation하면 데이터를 두 세트 (트레인 및 테스트)로 나눌 수 있습니다. 그러나 데이터를 세 세트로 나누는 방법에 대한 해결책을 찾지 못했습니다. 바람직하게는 원본 데이터의 색인을 갖고 싶습니다.

해결 방법은 train_test_split두 번 사용 하고 어떻게 든 색인을 조정하는 것입니다. 그러나 데이터를 2 대신 3 세트로 나누는 더 표준적인 방법이 있습니까?


5
이것은 귀하의 특정 질문에 대한 답변은 아니지만, 더 표준적인 접근 방식은 훈련 및 테스트, 훈련 세트에서 교차 검증을 실행하여 독립 "개발"세트가 필요하지 않다고 생각합니다. .
David

1
이것은 전에 나타났습니다. 내가 아는 한 아직 내장 된 방법이 없습니다.
ayhan

5
Hastie et al.의 통계 학습 요소 (Elements of Statistical Learning) 가 왜 두 세트 대신 세 세트를 사용해야하는 지에 대한 논의를 제안합니다 ( web.stanford.edu/~hastie/local.ftp/Springer/OLD/… 모델 평가 및 선택 장).
ayhan

2
@David 과적 합을 방지하기 위해 일부 모델에서는 2 대신 3 세트가 필요합니다. 설계 선택에서 테스트 세트의 성능을 향상시키기 위해 매개 변수를 조정하고 있습니다. 이를 방지하려면 개발 세트가 필요합니다. 따라서 교차 검증을 사용하는 것만으로는 충분하지 않습니다.
CentAu

6
이 책의 수정 된 URL 인 @ayhanstatweb.stanford.edu/~tibs/ElemStatLearn/printings/… , 7 장 (p. 219)입니다.
Camille Goudeseune

답변:


161

너피 솔루션. 먼저 전체 데이터 세트를 섞은 다음 (df.sample (frac = 1)) 데이터 세트를 다음 부분으로 분할합니다.

  • 60 %-열차 세트,
  • 20 %-검증 세트
  • 20 %-테스트 세트

In [305]: train, validate, test = np.split(df.sample(frac=1), [int(.6*len(df)), int(.8*len(df))])

In [306]: train
Out[306]:
          A         B         C         D         E
0  0.046919  0.792216  0.206294  0.440346  0.038960
2  0.301010  0.625697  0.604724  0.936968  0.870064
1  0.642237  0.690403  0.813658  0.525379  0.396053
9  0.488484  0.389640  0.599637  0.122919  0.106505
8  0.842717  0.793315  0.554084  0.100361  0.367465
7  0.185214  0.603661  0.217677  0.281780  0.938540

In [307]: validate
Out[307]:
          A         B         C         D         E
5  0.806176  0.008896  0.362878  0.058903  0.026328
6  0.145777  0.485765  0.589272  0.806329  0.703479

In [308]: test
Out[308]:
          A         B         C         D         E
4  0.521640  0.332210  0.370177  0.859169  0.401087
3  0.333348  0.964011  0.083498  0.670386  0.169619

[int(.6*len(df)), int(.8*len(df))]-numpy.split ()indices_or_sections배열입니다 .

다음은 np.split()사용법에 대한 간단한 데모입니다. 20 개 요소 배열을 80 %, 10 %, 10 %로 나눕니다.

In [45]: a = np.arange(1, 21)

In [46]: a
Out[46]: array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20])

In [47]: np.split(a, [int(.8 * len(a)), int(.9 * len(a))])
Out[47]:
[array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16]),
 array([17, 18]),
 array([19, 20])]

@root frac = 1 매개 변수는 정확히 무엇을하고 있습니까?
SpiderWasp42

1
@ SpiderWasp42, 모든 ( 또는 분수 = ) 행 을 반환 frac=1하도록 sample()함수에 지시100%1.0
MaxU

12
감사합니다 @MaxU. 일을 단순화하기 위해 2 가지를 언급하고 싶습니다. 먼저, np.random.seed(any_number)분할 선 앞에 사용 하여 매 실행마다 동일한 결과를 얻습니다. 둘째, train:test:val::50:40:10use 와 같지 않은 비율을 만듭니다 [int(.5*len(dfn)), int(.9*len(dfn))]. 여기서 첫 번째 요소는 train(0.5 %)의 크기를 나타내고 두 번째 요소는 val(1-0.9 = 0.1 %)의 크기를 나타내며 두 ​​요소의 차이는 test(0.9-0.5 = 0.4 %)의 크기를 나타냅니다 . 내가 틀렸다면 바로
잡아 줘

hrmm "np.split () 사용법에 대한 작은 데모가 있습니다. 20 개의 요소 배열을 다음 부분으로 나눕니다 : 90 %, 10 %, 10 % :" %, 10 %, 10 %
Kevin

이봐, @MaxU 나는 약간 비슷한 경우가 있었다. 나는 그것이 당신이 있는지 확인하고 나를 도울 수 있는지 궁금합니다. 내 질문은 다음과 같습니다 stackoverflow.com/questions/54847668/…
Deepak M

55

노트 :

무작위 세트 생성 시딩을 처리하기 위해 함수가 작성되었습니다. 세트를 무작위 화하지 않는 세트 분할에 의존해서는 안됩니다.

import numpy as np
import pandas as pd

def train_validate_test_split(df, train_percent=.6, validate_percent=.2, seed=None):
    np.random.seed(seed)
    perm = np.random.permutation(df.index)
    m = len(df.index)
    train_end = int(train_percent * m)
    validate_end = int(validate_percent * m) + train_end
    train = df.iloc[perm[:train_end]]
    validate = df.iloc[perm[train_end:validate_end]]
    test = df.iloc[perm[validate_end:]]
    return train, validate, test

데모

np.random.seed([3,1415])
df = pd.DataFrame(np.random.rand(10, 5), columns=list('ABCDE'))
df

여기에 이미지 설명을 입력하십시오

train, validate, test = train_validate_test_split(df)

train

여기에 이미지 설명을 입력하십시오

validate

여기에 이미지 설명을 입력하십시오

test

여기에 이미지 설명을 입력하십시오


1
이 함수에는 인덱스 값이 1에서 n까지의 df가 필요하다고 생각합니다. 필자의 경우 인덱스 값이 반드시이 범위에 있지 않아도 df.loc을 사용하도록 함수를 수정했습니다.
iOSBeginner

32

그러나, 데이터 세트로 분할하는 한 가지 방법 train, test, cv로는 0.6, 0.2, 0.2을 사용하는 것 train_test_split두 방법.

from sklearn.model_selection import train_test_split

x, x_test, y, y_test = train_test_split(xtrain,labels,test_size=0.2,train_size=0.8)
x_train, x_cv, y_train, y_cv = train_test_split(x,y,test_size = 0.25,train_size =0.75)

대규모 데이터 세트에 대한
차선책

@MaksymGanenko 좀 더 자세히 설명해 주시겠습니까?
blitu12345

두 개의 별도 작업으로 데이터를 분할하는 것이 좋습니다. 각 데이터 분할에는 데이터 복사가 포함됩니다. 따라서 하나 대신 두 개의 분리 된 분할 작업을 사용하도록 제안하면 RAM과 CPU에 인위적으로 부담이 생깁니다. 따라서 귀하의 솔루션은 차선책입니다. 데이터 분할은와 같은 단일 작업으로 수행해야합니다 np.split(). 또한에 대한 추가 종속성이 필요하지 않습니다 sklearn.
Maksym Ganenko

@MaksymGanenko는 메모리에 대한 추가 부담에 동의했으며 동일한 이유로 메모리에서 원본 데이터를 삭제할 수 있습니다 (xtrain & labels)! 그리고 numpy 사용에 대한 제안은 정수 데이터 유형으로 만 제한되며 다른 데이터 유형은 어떻습니까?
blitu12345

1
이 방법의 또 다른 이점은 계층화 매개 변수를 사용할 수 있다는 것입니다.
Ami Tavory

7

다음은 계층화 된 샘플링을 사용하여 Pandas 데이터 프레임을 학습, 유효성 검사 및 테스트 데이터 프레임으로 분할하는 Python 함수입니다. scikit-learn의 함수를 train_test_split()두 번 호출하여이 분할을 수행합니다 .

import pandas as pd
from sklearn.model_selection import train_test_split

def split_stratified_into_train_val_test(df_input, stratify_colname='y',
                                         frac_train=0.6, frac_val=0.15, frac_test=0.25,
                                         random_state=None):
    '''
    Splits a Pandas dataframe into three subsets (train, val, and test)
    following fractional ratios provided by the user, where each subset is
    stratified by the values in a specific column (that is, each subset has
    the same relative frequency of the values in the column). It performs this
    splitting by running train_test_split() twice.

    Parameters
    ----------
    df_input : Pandas dataframe
        Input dataframe to be split.
    stratify_colname : str
        The name of the column that will be used for stratification. Usually
        this column would be for the label.
    frac_train : float
    frac_val   : float
    frac_test  : float
        The ratios with which the dataframe will be split into train, val, and
        test data. The values should be expressed as float fractions and should
        sum to 1.0.
    random_state : int, None, or RandomStateInstance
        Value to be passed to train_test_split().

    Returns
    -------
    df_train, df_val, df_test :
        Dataframes containing the three splits.
    '''

    if frac_train + frac_val + frac_test != 1.0:
        raise ValueError('fractions %f, %f, %f do not add up to 1.0' % \
                         (frac_train, frac_val, frac_test))

    if stratify_colname not in df_input.columns:
        raise ValueError('%s is not a column in the dataframe' % (stratify_colname))

    X = df_input # Contains all columns.
    y = df_input[[stratify_colname]] # Dataframe of just the column on which to stratify.

    # Split original dataframe into train and temp dataframes.
    df_train, df_temp, y_train, y_temp = train_test_split(X,
                                                          y,
                                                          stratify=y,
                                                          test_size=(1.0 - frac_train),
                                                          random_state=random_state)

    # Split the temp dataframe into val and test dataframes.
    relative_frac_test = frac_test / (frac_val + frac_test)
    df_val, df_test, y_val, y_test = train_test_split(df_temp,
                                                      y_temp,
                                                      stratify=y_temp,
                                                      test_size=relative_frac_test,
                                                      random_state=random_state)

    assert len(df_input) == len(df_train) + len(df_val) + len(df_test)

    return df_train, df_val, df_test

아래는 완전한 작업 예입니다.

계층화를 수행하려는 레이블이있는 데이터 세트를 고려하십시오. 이 레이블은 원래 데이터 세트에 자체 분포가 있습니다 (예 : 75 % foo, 15 % bar및 10 %) baz. 이제 60/20/20 비율을 사용하여 데이터 집합을 학습, 유효성 검사 및 하위 집합으로 테스트 해 보겠습니다. 여기서 각 분할은 동일한 레이블 분포를 유지합니다. 아래 그림을 참조하십시오.

여기에 이미지 설명을 입력하십시오

다음은 예제 데이터 세트입니다.

df = pd.DataFrame( { 'A': list(range(0, 100)),
                     'B': list(range(100, 0, -1)),
                     'label': ['foo'] * 75 + ['bar'] * 15 + ['baz'] * 10 } )

df.head()
#    A    B label
# 0  0  100   foo
# 1  1   99   foo
# 2  2   98   foo
# 3  3   97   foo
# 4  4   96   foo

df.shape
# (100, 3)

df.label.value_counts()
# foo    75
# bar    15
# baz    10
# Name: label, dtype: int64

이제 split_stratified_into_train_val_test()위 의 함수를 호출하여 60/20/20 비율에 따라 학습, 검증 및 테스트 데이터 프레임을 얻습니다.

df_train, df_val, df_test = \
    split_stratified_into_train_val_test(df, stratify_colname='label', frac_train=0.60, frac_val=0.20, frac_test=0.20)

세 개의 데이터 프레임 df_train, df_valdf_test에는 모든 원래 행이 포함되지만 크기는 위의 비율을 따릅니다.

df_train.shape
#(60, 3)

df_val.shape
#(20, 3)

df_test.shape
#(20, 3)

또한, 3 개의 분할 각각은 동일한 라벨 분포, 즉 75 % foo, 15 % bar및 10 % 를 가질 것이다 baz.

df_train.label.value_counts()
# foo    45
# bar     9
# baz     6
# Name: label, dtype: int64

df_val.label.value_counts()
# foo    15
# bar     3
# baz     2
# Name: label, dtype: int64

df_test.label.value_counts()
# foo    15
# bar     3
# baz     2
# Name: label, dtype: int64

NameError : 이름 'df'가 정의되지 않았습니다. split_stratified_into_train_val_test ()의 'df'는 'df_input'으로 바꿔야합니다.
판타지 폴락

감사. 나는 그것을 고쳤다. 문제가 코드의 오류 처리 경로에있었습니다.
stackoverflowuser2010

1

train_test_split여러 세트로 나누고 일부 추가 코드를 작성한 후 재 인덱싱을 수행하지 않고 사용 하는 것이 매우 편리 합니다. 위의 가장 좋은 대답은 train_test_split파티션 크기를 변경하지 않고 두 번 분리 해도 처음에 의도 한 파티션을 제공 하지 않는다는 것을 언급하지는 않습니다 .

x_train, x_remain = train_test_split(x, test_size=(val_size + test_size))

그런 다음 x_remain의 유효성 검사 및 테스트 세트 부분이 변경 되어 다음 과 같이 계산 될 수 있습니다.

new_test_size = np.around(test_size / (val_size + test_size), 2)
# To preserve (new_test_size + new_val_size) = 1.0 
new_val_size = 1.0 - new_test_size

x_val, x_test = train_test_split(x_remain, test_size=new_test_size)

이 경우 모든 초기 파티션이 저장됩니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.