machine learning
Cross Validation
임이레
2023. 2. 6. 23:22
<전제>
보통 Train set과 test set을 나누어 모델을 훈련시키고 검증을 함.
그러나 이런 방식은 고정된 test set에서만 잘 예측되는 결과를 낳는다. 즉 OverFitting의 위험성이 존재한다는 것. 다른 dataset을 통해 예측을 수행하는 경우 성능이 엉망인 결과를 야기함.
이를 해결하기 위한 방식이 바로 교차검증 'Cross Validation' !
<방법>
Training Set 과 Validation Set 을 여러개 만들어 모델의 학습을 검증.
Generalization 을 통해 학습의 성능을 높힘.
# k-fold
- 가장 일반적으로 사용되는 기법
- Regression model 에 일반적으로 사용되며 , 데이터가 독립적이고 동일한 분포를 띄우는 경우 사용.
- K-fold Cross Validation 검증 과정 - > 전체적으로 k 번의 성능 결과를 평균적으로 나눈 결과가 해당 학습 모델의 성능이라고 한다.