과소적합과 과적합에 대해서 알아보겠습니다.
머신러닝에서 느낌상 과소적합은 학습이 부족한 느낌이고, 과적합 같은 경우에는 학습이 많이 된 느낌입니다.
그러면 학습이 많이 된 것이 왜 나쁜가? 좋은 것 아닌가 라고 할 수 있는데 아래의 그림을 보고 설명드리겠습니다.
Degree1 을 보면은 학습이 조금밖에 안돼서 주황색 선을 따라 학습 곡선이 그려지지 못한 겁니다. 이 경우에는 학습을 더 해야겠죠?
Degree4 는 주황색 선을 잘 따라가면서 학습이 잘 되었습니다.
Degree15 를 보면 파란색 점을 잘 따라서 찍기는 했지만, 학습하길 원하는 주황색 선의 그래프와는 굉장히 많이 벗어났습니다.
이 때문에, 오버피팅을 방지하고 가장 적합한 만큼만 학습을 하는 방법이 필요합니다.
--참조
[1] - https://scikit-learn.org/stable/auto_examples/model_selection/plot_underfitting_overfitting.html
'개발 > 파이썬 머신러닝 완벽가이드 정리' 카테고리의 다른 글
군집화 용어 (0) | 2020.02.17 |
---|---|
군집화(K-Means) (0) | 2020.02.17 |
XGBoost, LightGBM (0) | 2020.01.27 |
앙상블학습, 배깅, 보팅 (0) | 2020.01.25 |
결정트리 (0) | 2020.01.24 |