Machine Learning

[머신 러닝] K-Fold Cross Validation(K-Fold 교차검증)

Scarlett_C 2021. 9. 1. 22:58
728x90

K-Fold 교차검증

- 데이터의 개수가 너무 적을경우, 트레이닝 데이터와 테스트 데이터가 어떻게 나눠지는가에 따라 성능 측정 결과가 크게 달라질 수 있다.

==> 이런 문제를 해결하기 위해 K-Fold 교차검증을 사용 할 수 있음

 

<예시>

import numpy as np
from sklearn.model_selection import KFold
X=np.array([[1,2],[3,4],[1,2],[3,4]]) 
y=np.array([1,2,3,4]) 
kf=KFold(n_splits=2)

KFold(n_splits=2, random_state=None, shuffle=False)
for train_index, test_index in kf.split(X):
	X_train, X_test = X[train_index], X[test_index]
    y_train, y_test = y[train_index], y[test_index]

- Training data 와 test data를 번갈아가면서 검증하기 때문에 정확도가 올라갈 수 있음

728x90