less than 1 minute read

AlexNet에서 측면 억제를 사용한 것은 ReLU의 사용 떄문이다.

  • ReLU는 양수의 방향으로는 입력의 값을 그대로 사용한다.
  • 그렇게 되면 Conv나 Pooling시 매우 높은 하나의 픽셀값이 주변의 픽셀에 영향을 미친다.
  • 이런 부분을 방지하려면 ActivationMap의 같은 위치에있는 픽셀끼리 정규화를 해준다.

설명링크 LRN과 배치 노말라이제이션 차이