728x90 ๋ฐ์ํ Deep Learning/2023 DL ๊ธฐ์ด ์ด๋ก ๊ณต๋ถ28 [ํ์ด์ฌ ๋ฅ๋ฌ๋ ํ์ดํ ์น] Part3 ๊ธฐ์กด ์ ๊ฒฝ๋ง์ ๋จ์ : ๊ณผ์ ํฉ Gradient Vanishing ++ Internal Covariance Shift ํ์ ๋ฐ์ ( Input ๋ถํฌ๊ฐ ๋ฌ๋ผ์ง์ ๋ฐ๋ผ ํ์ต ์๋๊ฐ ๋๋ ค์ง๋ ํ์ ⇒ ์ด๋ฅผ ์ํ์ํค๊ณ ์ ๋ฅ๋ฌ๋์ด ๋์ค๊ฒ ๋จ ๊ณผ์ ํฉ๊ณผ ๊ธฐ์ธ๊ธฐ ๊ฐํด ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ ๋ฅ๋ฌ๋ ๋ฐฉ๋ฒ drop - out ํ์ต ์์๋ dropout ์คํ ํ๊ฐ ์์๋ drop out ์ฌ์ฉx (๋ชจ๋ ๋ ธ๋๋ฅผ ํ์ฉํด output ๊ณ์ฐ) activation ํจ์ relu ํจ์ ์ ๋ ฅ ๊ฐ์ด 0 ์ด์ ๋ถ๋ถ์ด๋ฉด ๊ธฐ์ธ๊ธฐ 1, 0 ์ดํ ๋ถ๋ถ์ 0 ⇒ ๋ฐ๋ผ์ ์์ ์์ด์ง๊ฑฐ๋ ์์ ํ ์ด๋ฆฌ๋ ๊ฒ์ผ๋ก ํด์ ๊ฐ๋ฅ ⇒ ๋ ์ด์ด๊ฐ ๊น์ด์ ธ๋ Gradient Vanishing์ด ์ผ์ด๋๋ ๊ฒ์ ์ํ์ํด Batch Normalization Internal Covarian.. 2023. 7. 8. [ํ์ด์ฌ ๋ฅ๋ฌ๋ ํ์ดํ ์น] Part5 part5-1 Data & Task: ์ด๋ค ๋ฐ์ดํฐ๊ฐ ์์๊น ์์ฐ์ด ์ฒ๋ฆฌ(NLP) : text ๋ฐ์ดํฐ๋ฅผ ๋ถ์ํ๊ณ ๋ชจ๋ธ๋ง ํ๋ ๋ถ์ผ (NLU+NLG) ์์ฐ์ด ์ดํด(NLU): ์์ฐ์ด ์ดํดํ๋ ์์ญ ์์ฐ์ด ์์ฑ(NLG): ์์ฐ์ด ์์ฑ ๊ฐ์ ๋ถ์ (sentiment analysis) ์์ฝ(summarization) ๊ธฐ๊ณ ๋ฒ์ญ(machine translation) ์ง๋ฌธ ์๋ต(question answering) +a (ํ์ฌ ์์ธก ๋ถ์ผ, ์ฑ๋ด ์ฐ๊ตฌ, ๋ฌธ์ฅ ๊ฐ์ ๋ ผ๋ฆฌ์ ๊ด๊ณ์ ๋ํ ๋ถ๋ฅ ๋ชจ๋ธ, ์ค์์ ํํ ๊ตฌ๋ณ, ์ด๋ฏธ์ง ์ ์ํฉ ์ค๋ช ๊ธ ๋ง๋ค๊ธฐ ๋ฑ๋ฑ part5-2 ๋ฌธ์๋ฅผ ์ซ์๋ก ํํํ๋ ๋ฐฉ๋ฒ Tokenization: ๋ฌธ์ฅ์ ์๋ฏธ ์๋ ๋ถ๋ถ์ผ๋ก ๋๋๋ ๊ณผ์ ์ฐ์๋ ๋ฌธ์์ ๋์ด(๋ฌธ์ฅ)์ ์ ์ ํ๊ฒ ์๋ฏธ๋ฅผ ์ง๋ ๋ถ๋ถ์ ๋์ด๋ก ๋ฐ.. 2023. 7. 8. [Standford_cs231n] Lecture 2 ) Image Classification 0. Image Classification Semantic gap: ์ด๋ฏธ์ง๊ฐ ๊ณ ์์ด๋ผ๋ ์ฌ์ค๊ณผ, ์ค์ ์ปดํจํฐ๊ฐ ๋ณด๋ ์ ์ซ์๊ฐ์๋ ํฐ ๊ฒฉ์ฐจ๊ฐ ์กด์ฌ ⇒ ์ด๋ฅผ ์๋ฉํฑ ๊ฐญ์ด๋ผ๊ณ ์นญํจ. ์ฐ๋ ๊ตฌ๋๋ ์กฐ๋ช , ์์ธ ๋ณํ, ์ฌ๋ฌผ์ ๊ฐ๋ ค์ง๋ ๋ฑ ์ด๋ฌํ ๋ณํ์ ๋ฐ๋ผ ํฝ์ ๊ฐ๋ค์ ๋ณํ๊ฒ ๋๋๋ฐ, ๊ทธ๋ผ์๋ ์ปดํจํฐ๋ ‘๊ณ ์์ด’๋ผ๊ณ ์ธ์ ํ ์ ์์ด์ผํจ. ๊ทธ๋์ ์ด๋ฏธ์ง์์ edges์ ์ถ์ถํ๊ณ , ๊ท๋ชจ์์ด๋ ์ฝ๋ชจ์ ๊ฐ์ ๊ณ ์์ด์๊ฒ ํ์ํ ์งํฉ๋ค์ ํ๋์ฉ ์ฐพ์์ ์ด๋ฌํ ์งํฉ๋ค์ด ๋ค ์์ผ๋ฉด ๊ณ ์์ด๋ค ๋ผ๊ณ ์ธ์ํ๊ฒ ํจ.⇒ ํ์ง๋ง ๋นํจ์จ์ , ์ ์๋ํ์ง ์์ ⇒ ๋ค๋ฅธ ๊ฐ์ฒด(๊ฐ์์ง๋ ์ง)๋ค์ ์ธ์ํ๊ธฐ ์ํด์๋ ๊ทธ ํด๋์ค์ ๋ง๋ ์งํฉ์ ๋ ํ๋์ฉ ๋ค ๋ง๋ค์ด์ค์ผ ํ๋ ๋ฌธ์ ๋ฐ์. ↔ ์ด๋์ ๋์จ ๋ฐฉ๋ฒ์ด ๋ฐ์ดํฐ ์ค์ฌ ์ ๊ทผ ๋ฐฉ๋ฒ(Data-Driv.. 2023. 7. 8. [Standford_cs231n] Lecture 3 ) Loss Functions and Optimization 1. Loss Function ์ฌ์ง์์ ๋ณด์ด๋ score๊ฐ ๋ฎ์์๋ก W์ ์ํฅ๋ ฅ๋ ์์ข์ ๊ฒ์ด๋ผ๊ณ ๋งํ ์ ์์( ๋ถ๋ฅ๋ฅผ ์ ํ์ง ๋ชปํ์ผ๋ฏ๋ก ) W๊ฐ ์ข๋ค ์์ข๋ค ์ ๋๋ก ์ ๋ํ ํ ์ ์๋ ๊ฒ์ด ํ์ํจ ⇒ loss function W(๊ฐ์ค์น)๊ฐ ์ผ๋งํผ ์ข๊ณ ์์ข๋ค๋ก ๋ํ๋ผ ์ ์๋ ํจ์๊ฐ ๋ฐ๋ก ์์คํจ์์. SVM loss( hinge loss ) softmax loss( cross entropy ) 1-1) Multiclass SVM loss ์ ๋ตํด๋์ค≥์ ๋ต์๋ํด๋์ค+1 ⇒ loss=0 ( ๋งค์ฐ ์ข์ ) ex) cat๊ณผ car์ ๊ฒฝ์ฐ : ์ ๋ตํด๋์ค(3.2)≥์ ๋ต์๋ํด๋์ค(5.1)+1 ์ด ์๋๋ฏ๋ก ํด๋น ๊ฐ์ loss ๊ฐ์ผ๋ก cat๊ณผ frog์ ๊ฒฝ์ฐ : ์ ๋ตํด๋์ค(3.2)≥ ์ ๋ต์๋ํด๋์ค(-1.7)+1 ์ด๋ฏ.. 2023. 7. 8. [Standford_cs231n] Lecture 4 ) Introduction to Neural Networks 4-1) Computational graphs 4-2) Backpropagation 4-3) Gradient for vectorized code ์์์ ํ ๋ด์ฉ๋ค์ ์ด๋ค ํ ๋ณ์ ๊ฐ์ผ๋ก Gradient์ ๊ณ์ฐ ํ์ง๋ง ์ฐ๋ฆฌ๊ฐ ์ค์ ๋ก ์ฌ์ฉํ๋ ์ ๋ ฅ๊ฐ์ scaler ๊ฐ ์ด ์๋ vector๊ฐ ์ด๋ฌํ vector๋ฅผ ์ฌ์ฉํ๊ธฐ ์ํด์๋ ๋ค๋ณ์ ๋ฒกํฐ ํจ์(vector-valued function of multiple variables) ์ ๋ํ ์ผ์ฐจ๋ฏธ๋ถ๊ฐ์ด ํ์ ์ด๋ฅผ Jacobian (์ผ์ฝ๋น์) matrix ๋ผ๊ณ ํจ. 4-4) Neural Networks Neural Networks(์ธ๊ณต ์ ๊ฒฝ๋ง)์ ์์์ ๋ฐฐ์ด Linear Classifier์ 2๊ฐ ์ด์ ์์์ฌ๋ฆฌ๋ ํํ. ์ด ์ฌ์ด์ Non-linear functio.. 2023. 7. 8. [Standford_cs231n] Lecture 5 ) Convolutional Neural Networks 1. Convolutional Neural networks 1. Convolutional Layer Stride ์คํธ๋ผ์ด๋(stride) ์ด๋ฏธ์ง๋ฅผ ์ฌ๋ผ์ด๋ฉ ํ ๋ ์์ง์ด๋ step์ ํฌ๊ธฐ. ์๋ ์คํธ๋ผ์ด๋ 2 2. Convolutional Layer Pad ํํฐ ํฌ๊ธฐ์ ๋ฐ๋ผ์ ์ถ๋ ฅ ๊ฐ๋ก ์ธ๋ก ๊ธธ์ด๊ฐ ์ค์ด๋ฌ padding์ ์ฐ๋ฉด ์๋ณธ ํฌ๊ธฐ ์ ์ง, ์ด๋ฏธ์ง ๊ฐ์ฅ์๋ฆฌ ๊ณ์ฐ ๋ ๋๋ ๊ฒ์ ๋ง์ ์ ์์ 3. Convolutional Layer Output Size W : input image width F : Filter width S : Stride P : Pad Output W : (W - F + 2*P)/S + 1 4. Convolution Layer์ Backpropagation ์ฒ์์ ํํฐ๊ฐ ๋นจํ๋ ธ์ด ํ.. 2023. 7. 7. ์ด์ 1 2 3 4 5 ๋ค์ 728x90 ๋ฐ์ํ