728x90
๋ฐ์ํ
1. Convolutional Neural networks
1. Convolutional Layer Stride
2. Convolutional Layer Pad
3. Convolutional Layer Output Size
4. Convolution Layer์ Backpropagation



- ์ฒ์์ ํํฐ๊ฐ ๋นจํ๋ ธ์ด ํํฐ ์ด๋ฐ์์ผ๋ก ๊ฐ๋ฉด
- x11์ ๊ฒฝ์ฐ ๋นจ๊ฐ์ ํํฐ๋ง
- x12์ ๊ฒฝ์ฐ ํ๋์๊ณผ ๋นจ๊ฐ์ ํํฐ
- x13์ ๊ฒฝ์ฐ ํ๋์๋ง
- x22์ ๊ฒฝ์ฐ ๋นจํ๋ ธ์ด์ ํํฐ๊ฐ ๋ค ๋ค์ด๊ฐ
- ๊ทธ๋ผ ๊ฒฐ๊ตญ์ S11,s12,s21,s22์ ๊ฐ์ด ๊ฒฐ์ ์ ์ผ๋ก ๋์ค๊ฒ ๋จ.
- ์ด๋ฅผ ์ญ์ ํํ ๊ฒฝ์ฐ,
- x22์ ๊ฒฝ์ฐ ๋นจํ๋ ธ์ด์ 4๊ฐ์ง ๊ฐ์ค์นํ๊ณ ํฉ์ฑ๊ณฑ์ ํ๊ธฐ ๋๋ฌธ์ 4๋ฒ์ ์ญ์ ํ๊ฐ ์งํ๋์ด์ผ ํจ.
- x21์ ๊ฒฝ์ฐ, ๋ ธ๋์ ๊ฐ์ค์น, ๋นจ๊ฐ์ ๋ ๊ฐ์ ๊ฐ์ค์นํ๊ณ ํฉ์ฑ๊ณฑ์ ์งํ ⇒ 2๋ฒ์ ์ญ์ ํ ์งํ
- ์ด๊ฒ์ ํจ๊ณผ์ ์ผ๋ก ํ๊ธฐ ์ํด์๋ ํํฐ๋ฅผ ๋ค์ง์ผ๋ฉด ์์ํ๊ฒ ๊ฐ๋ฅ.

- x22์ ๋ํ ๋ฏธ๋ถ ๊ฐ์ ๊ตฌํ๊ธฐ ์ํด์๋ ์ ๋ ๊ฒ ๋ค ๋ฒ์ ์ญ์ ํ๊ฐ ์งํ๋์ด์ผ ํจ.
- x22 * s11 + x22*s12 + x22*s21 + x22*s22 ์ด ๊ฐ์ด ๋ฐ๋ก ์ญ์ ํํ ๋ฏธ๋ถ์ ๊ฐ์ด๋ผ๊ณ ํ ์ ์์
- ์ด ์๋ฆฌ๋ ๊ฒฐ๊ตญ ํํฐ๋ฅผ ๋ค์ง์ด์ ๊ณฑํ ๊ฐ๊ณผ ๊ฐ์.

๊ธฐ์กด์ ๋นจ-ํ-๋ ธ-์ด ์๋ ํํฐ๋ฅผ ๋ค์ง์ด์ ์ด-๋ ธ-ํ-๋นจ๋ก ํ๊ฒ ๋๋ฉด ์ํ๋ ๊ฐ์ด ๊ฒฐ๊ตญ ๋ค์ ๊ณ์ฐ ๋จ ⇒ ํจ์ฌ ์์ํ๊ฒ ๊ณ์ฐ์ด ๋จ. ( ์๋ ๊ทธ๋ฆผ ์ฐธ๊ณ )







https://ratsgo.github.io/deep%20learning/2017/04/05/CNNbackprop/
https://www.philgineer.com/2021/02/cnn-5.html
2. Pooling Layer
2. Max Pooling Layer Backpropagation
- forward์์ ๊ฐ์ฅ ํฐ ๊ฐ์ ๊ฐ์ก๋ gradient๋ฅผ ๋ณด๋ด๋ ๊ฒ๊ณผ ๊ฐ์.
- max activation ์์น ์ ์ฅํ๋ค๊ฐ ์ญ์ ํ ๋ ์ฌ์ฉ.
3. Pooling vs Conv Stride
- pooling⇒ํฌ๊ธฐ๋ฅผ ์ฌํ๊ฒ ์ค์ด๊ธฐ ๋๋ฌธ์ ์ค๋ฒํผํ ๋ฐฉ์งํจ๊ณผ ๋ฑ์ผ๋ก ํ์ฉ
- ์ ์ ์ฌ์ฉ x
728x90
๋ฐ์ํ
'Deep Learning > 2023 DL ๊ธฐ์ด ์ด๋ก ๊ณต๋ถ' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Standford_cs231n] Lecture 3 ) Loss Functions and Optimization (0) | 2023.07.08 |
---|---|
[Standford_cs231n] Lecture 4 ) Introduction to Neural Networks (0) | 2023.07.08 |
[Standford_cs231n] Lecture 6 ) Training Neural Networks I (0) | 2023.07.07 |
[Standford_cs231n] Lecture 7 ) Training Neural Networks II (0) | 2023.07.07 |
[Standford_cs231n] Lecture 8 ) Deep Learning Software (0) | 2023.07.07 |