CNN 배치 정규화

  Рет қаралды 1,032

코드없는 프로그래밍

코드없는 프로그래밍

Күн бұрын

Пікірлер: 5
@오늘의추천-s8n
@오늘의추천-s8n 3 ай бұрын
설명을 진짜 잘하세요! 감사합니다.
@wr925
@wr925 Жыл бұрын
안녕하세요 노코프님 영상 잘 보고 있습니다. 4:20초 경에 자체적으로 평균을 내고 있기 때문에 bias는 false를 시킨다는 의미가 잘 이해되지 않는데 조금 더 상세한 설명을 부탁드려도 괜찮을까요? 추가적으로 채널별 평균을 낸다는 것은 c x h x w 이런 이미지가 B개 있을 때 배치의 평균을 내기 때문에 shape이 c x h x w로 나온다는 것으로 이해했는데 맞게 이해한 것일까요?
@코드없는프로그래밍
@코드없는프로그래밍 Жыл бұрын
안녕하세요. batch norm은 이전에 올린 영상에서 소개하고있습니다. batchnorm 자체가 통계적 평균과 분산을 계산해서 재 정렬을 하기 때문에, 그전 layer의 bias term은 필요가 없습니다. 자세한 내용은 아래 링크에서 확인가능합니다. kzbin.info/www/bejne/gHu9i4qDbtl6ppYsi=Y2ZQnCQKLcNW33zU&t=383
@wr925
@wr925 Жыл бұрын
@@코드없는프로그래밍 답변 감사드립니다. bias term이 필요없는 이유는 해당 영상을 통해 이해할 수 있게 되었습니다! 채널별 평균은 만약 가로, 세로 각 100에 3채널 이미지가 있다고 하면 100 x 100에 대한 픽셀의 평균을 구하는 형태로 평균값 3개, 분산값 3개 나오는 거로 이해했는데 이는 맞게 이해한 걸까요?
@코드없는프로그래밍
@코드없는프로그래밍 Жыл бұрын
@@wr925 네 맞습니다. 더 정확히는 batch*100x100 입니다.
딥러닝, CNN, module, 디자인
6:08
코드없는 프로그래밍
Рет қаралды 691
Support each other🤝
00:31
ISSEI / いっせい
Рет қаралды 81 МЛН
Standardization vs Normalization Clearly Explained!
5:48
Normalized Nerd
Рет қаралды 159 М.
딥러닝 배치 정규화 batch norm test
8:11
코드없는 프로그래밍
Рет қаралды 1,2 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,2 МЛН
Batch normalization
15:33
Brandon Rohrer
Рет қаралды 10 М.
[딥러닝] 9강. "최고의 17분!" 가장 깔끔한 배치 정규화 (Batch Normalization) 설명
16:55
Batch Normalization (“batch norm”) explained
7:32
deeplizard
Рет қаралды 234 М.
Why Does Diffusion Work Better than Auto-Regression?
20:18
Algorithmic Simplicity
Рет қаралды 407 М.