Local Response Noramlization less than 1 minute read AlexNet에서 측면 억제를 사용한 것은 ReLU의 사용 떄문이다. ReLU는 양수의 방향으로는 입력의 값을 그대로 사용한다. 그렇게 되면 Conv나 Pooling시 매우 높은 하나의 픽셀값이 주변의 픽셀에 영향을 미친다. 이런 부분을 방지하려면 ActivationMap의 같은 위치에있는 픽셀끼리 정규화를 해준다. 설명링크 LRN과 배치 노말라이제이션 차이 Previous Next
조건부 확률 less than 1 minute read 조건부 확률 사건 A,B가 표본공간 S의 두 부분집합이며, 사건 A가 일어났다는 조건 하에 사건 B가 일어날 확률을 사건 A가 일어났을 때 사건 B의 조건부 확률이라 한다. 이는 기호로 다음과 같이 표현한다. \[ P(B|A) = \frac{P(A \cap B)}{P(A)} \]