less than 1 minute read

https://subinium.github.io/introduction-to-normalization/

Normalization

머신러닝, 딥러닝에서 normalization은 값 범위의 차이를 왜곡시키지 않고 데이터 세트를 공통 스케일로 변경하는 것이다.

  • feature scaling이라고도 불린다.
  • Min-Max Sclar의 의미로 사용되기도 한다. (데이터를 0과 1사이로 스케일을 조정하는 방법)

Generalization

학습된 모델이 다른 새로운 데이터에 관해서도 잘 작동하도록 하는 것이다.

  • 학습 iteration이 늘어나 training error가 낮아진다고 test error가 낮아진다는 보장이 없다.

Updated: