Deep Learning

3wk_Machine Learning Basic

뉴욕킴 2024. 3. 23. 13:05

Model Selection
▪ Selection of model parameter (capacity) → 모델의 크기를 말함(얼마나 복잡한 것을 썼나)
▪ If we assume a p-order polynomial regressor

 

To Avoid Overfitting

→ 오버피팅을 피할 수 있는 최적의 학습곡선 (Learning Curve) 찾기

 

k-fold Cross-Validation

1. Partition data into k-folds


1) Training and testing
• k models with different folds
• Each fold becomes training
data for k-1 times
• Each fold becomes test data
for 1 time


2) Leave-one-out : 데이터가 극단적으로 50개 정도로 적을 때, 49개 학습 후 1개로 평가하는 것을 말함. 

→ 4번 학습 후 1번 평가 

 

Moving Windows(시계열 데이터 일 때)

Regularization(규제) 

  • 이 방법은 모델에 제약(penalty)을 주는 것 입니다. 쉽게 말하자면, perfect fit 을 포기함으로써(trainging accuracy를 낮춤으로써)  potential fit을 증가시키고자(testing accuracy를 높이고자) 하는 것
  • 모델 복잡도에 대한 패널티로 Overfitting을 예방하고 일반화 성능을 높인다
    (매끄럽지 않은 데이터 설명 함수를 매끄럽게 만들어 모델의 오버피팅을 막기)