<전제>
보통 Train set과 test set을 나누어 모델을 훈련시키고 검증을 함.
그러나 이런 방식은 고정된 test set에서만 잘 예측되는 결과를 낳는다. 즉 OverFitting의 위험성이 존재한다는 것. 다른 dataset을 통해 예측을 수행하는 경우 성능이 엉망인 결과를 야기함.
이를 해결하기 위한 방식이 바로 교차검증 'Cross Validation' !
<방법>
Training Set 과 Validation Set 을 여러개 만들어 모델의 학습을 검증.
Generalization 을 통해 학습의 성능을 높힘.
# k-fold
- 가장 일반적으로 사용되는 기법
- Regression model 에 일반적으로 사용되며 , 데이터가 독립적이고 동일한 분포를 띄우는 경우 사용.
- K-fold Cross Validation 검증 과정 - > 전체적으로 k 번의 성능 결과를 평균적으로 나눈 결과가 해당 학습 모델의 성능이라고 한다.
'machine learning' 카테고리의 다른 글
시계열 비지도학습의 유의점 & 해석방법 (0) | 2023.05.11 |
---|---|
scaler 공부 (0) | 2023.02.11 |
시계열 모델 (0) | 2023.01.13 |
시계열 데이터 (0) | 2022.11.30 |
GridSearchCV_ (0) | 2022.05.11 |