728x90 ๋ฐ์ํ ๋์ธํ๋9 TOBIG's [์ฌ์ธตํ์ต] ์ 5์ฅ ๊ธฐ๊ณ ํ์ต์ ๊ธฐ์ด 5.1 ํ์ต ์๊ณ ๋ฆฌ์ฆ 5.1.1 ๊ณผ์ T - ๊ธฐ๊ณํ์ต์ ๊ณผ์ ๋ ์ผ๋ฐ์ ์ผ๋ก ๊ธฐ๊ณ ํ์ต ์์คํ ์ด ๊ฒฌ๋ณธ์ ์ฒ๋ฆฌํ๋ ๋ฐฉ์์ ์์ ํ๋ ํํ๋ก ์ ์๋๋ค. ์ฌ๊ธฐ์ ๊ฒฌ๋ณธ์ด๋ ๊ธฐ๊ณ ํ์ต ์์คํ ์ ์ฒ๋ฆฌ ๋์์ธ ์ด๋ค ๋ฌผ์ฒด๋ ์ฌ๊ฑด์ผ๋ก๋ถํฐ ์ ๋์ ์ผ๋ก ์ธก์ ํ ํน์ง(feature๋ค์ ์งํฉ)์ ์๋ฏธํ๋ค. ์๋ฅผ ๋ค์ด ๊ฒฌ๋ณธ ๋์งํธ ์ด๋ฏธ์ง์ ํน์ง๋ค์ ์ด๋ฏธ์ง๋ฅผ ๊ตฌ์ฑํ๋ ํฝ์ ๊ฐ์ด๋ค. ๋ค์์ ๊ฐ์ฅ ํํ ๊ธฐ๊ณ ํ์ต ๊ณผ์ ๋ช ๊ฐ์ง์ด๋ค. 1. ๋ถ๋ฅ 2. ๊ฒฐ์ธก ์ ๋ ฅ์ด ์๋ ์๋ฃ์ ๋ถ๋ฅ : ์ ๋ ฅ ๋ฒกํฐ์ ๋ชจ๋ ์ธก๋๊ฐ ํญ์ ๋ณด์ฅ์ด ์์ ๋๋ ๋ถ๋ฅ๊ฐ ๋ ์ด๋ ค์์ง๋ค. ๋ฐ๋ผ์, ๋ชจ๋ ๊ด๋ จ ๋ณ์์ ๊ดํ ํ๋ฅ ๋ถํฌ๋ฅผ ํ์ตํ๊ณ , ๊ฒฐ์ธก๊ฐ๋ค์ ์ฃผ๋ณํํด์ ๋ถ๋ฅ ๋ฌธ์ ๋ฅผ ํ๊ธฐ๋ ํ๋ค. 3. ํ๊ท 4. ์ ์ฌ(์ฎ๊ฒจ์ฐ๊ธฐ) : ํด๋น ์ข ๋ฅ์ ๊ณผ์ ์์ ๊ธฐ๊ณ ํ์ต ์์คํ ์ ๋น๊ต์ ๊ตฌ์กฐ์ ์ด.. 2024. 2. 2. [TOBIG's] ์ฌ์ธตํ์ต - ์ 4์ฅ ์์น๊ณ์ฐ ์ผ๋ฐ์ ์ผ๋ก ๊ธฐ๊ณ ํ์ต ์๊ณ ๋ฆฌ์ฆ์๋ ๋๋์ ์์น ๊ณ์ฐ์ด ํ์ํ๋ค. ์ด๋ค ๋ฐ๋ณต์ ์ธ ๊ณผ์ ์ ํตํด ์ ๋ต์ ์ถ์ ๊ฐ์ ๊ณ์ ๊ฐฑ์ ํจ์ผ๋ก์จ ๋ฌธ์ ๋ฅผ ํ์ง๋ง, ์ ํํ ๋ฉ๋ชจ๋ฆฌ๋ฅผ ๊ฐ์ง ๋์งํธ ์ปดํจํฐ๋ ์ค์๋ฅผ ์ ํํ๊ฒ ํํํ ์ ์๊ธฐ์ ์ฝ๊ฐ์ ํ๊ณ๊ฐ ์กด์ฌํ๋ค. 4.1 ๋์นจ๊ณผ ์๋๋์นจ - ์๋๋์นจ(underflow) : 0์ ๊ฐ๊น์ด ์๊ฐ ๋ฐ์ฌ๋ฆผ ๋๋ฌธ๋ฐ ์ ํํ 0์ด ๋๋ ๊ฒ์ ๋งํ๋ค. - ๋์นจ(overflow) : ํฌ๊ธฐ๊ฐ ํฐ ์๊ฐ ๋ฌดํ๋ ํน์ ๋ง์ด๋์ค ๋ฌดํ๋๋ก ๊ทผ์ฌ๋๋ ๊ฒ์ ๋งํ๋ค. -> ์ด๋ฌํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋๋ฐ ์ฐ์ด๋ ํจ์๊ฐ ๋ฐ๋ก ์ํํธ๋งฅ์ค ํจ์์ด๋ค. ๋ฉํฐ๋์ด ๋ถํฌ๋ฅผ ๋ฐ๋ฅด๋ ํ๋ฅ ๋ค์ ์์ธกํ๋๋ฐ ํํ ์ฌ์ฉ๋๋ค. 4.2 ๋์ ์กฐ๊ฑดํ - ์กฐ๊ฑดํ : ์ ๋ ฅ์ ์์ ๋ณํ์ ๋ํด ํจ์๊ฐ ์ผ๋ง๋ ๊ธํ๊ฒ ๋ณํ๋์ง๋ฅผ ๋ปํ๋ ์ฉ์ด์ด๋ค. ๊ณผํ ๊ณ์ฐ์.. 2024. 2. 2. LG Aimers 3๊ธฐ ์๋ฃ 2023. 12. 31. Module 7. ๋ฅ๋ฌ๋ (Deep Learning) (KAIST ์ฃผ์ฌ๊ฑธ ๊ต์) ๋ ์ง: 2023๋ 7์ 15์ผ Part 1. Introduction to Deep Neural Networks 1. Deep Learning : ์ ๊ฒฝ์ธํฌ๋ค์ด ๋ง์ ์ด๋ฃจ์ด์ ์ ๋ณด๋ฅผ ๊ตํํ๊ณ ์ฒ๋ฆฌํ๋ ๊ณผ์ ์ ๋ณธ๋ฐ์ ๋ง๋ ๋ฐฉ์์ ์๋ฏธํจ 2. ์ฌ์ธต ์ ๊ฒฝ๋ง์ ๊ธฐ๋ณธ ๋์ ๊ณผ์ - Big Data์ ํ์ - GPU Acceleration - Algorithm Improvements 3. Perceptron - ํผ์ ํธ๋ก ์ ์๋ฌผํ์ ์ธ ์ ๊ฒฝ๊ณ(Neual Network)์ ๊ธฐ๋ณธ ๋จ์์ธ ์ ๊ฒฝ์ธํฌ(=๋ด๋ฐ)์ ๋์ ๊ณผ์ ์ ํต๊ณํ์ ์ผ๋ก ๋ชจ๋ธ๋งํ ์๊ณ ๋ฆฌ์ฆ 4. Forward Propagation - ํ๋ ฌ ๊ณฑ์ ํตํด sigmoid function๊ณผ ๊ฐ์ actiavtion function์ ์ง๋๋ฉด ๊ฒฐ๊ณผ ๊ฐ์ด ๋์ด 5. MSE - ์๋ฌ.. 2023. 7. 15. Module 6. ๊ฐํํ์ต (Reinforcement Learning) (๊ณ ๋ ค๋ํ๊ต ์ด๋ณ์ค ๊ต์) ๋ ์ง: 2023๋ 7์ 13์ผ Part 1. MDP and Planning : Markov Decision Process์ ์ฝ์ Sequential Decision Making under Uncertainty๋ฅผ ์ํ ๊ธฐ๋ฒ ๊ฐํํ์ต(Reinforcement Learning, RL)์ ์ํ ๊ธฐ๋ณธ ๊ธฐ๋ฒ ์๊ณ ๋ฆฌ์ฆ(transition probability, reward function)์ ์๊ณ ์์ ๋๋ MDP(stocasitc control ๊ธฐ๋ฒ)์ ์ด์ฉ ์๊ณ ๋ฆฌ์ฆ์ ๋ชจ๋ฅด๊ณ simulation ๊ฒฐ๊ณผ(reward ๊ฐ)๋ฅผ ํ์ฉํ ๋๋ ๊ฐํํ์ต์ ์ด์ฉ https://velog.io/@recoder/MDP%EC%9D%98%EA%B0%9C%EB%85%90 S : set of states(state space) state .. 2023. 7. 15. Module 5. ์ง๋ํ์ต (๋ถ๋ฅ/ํ๊ท) (์ดํ์ฌ์๋ํ๊ต ๊ฐ์ ์ ๊ต์) ๋ ์ง: 2023๋ 7์ 8์ผ Part 1. SL Foundation 1.Supervised Learning - label๊ฐ์ด ์๋ ๊ฒ์ ๋งํจ - training๊ณผ test ๋จ๊ณ๊ฐ ์กด์ฌํจ - feature์ ๊ฒฝ์ฐ, domain ์ง์์ด ์ด๋ ์ ๋ ํ์ํจ - ๋ฅ๋ฌ๋์ ๊ฒฝ์ฐ, feature๋ฅผ ์ค์ค๋ก ํ์ตํ๊ธฐ๋ ํจ - SL์ ๊ฒฝ์ฐ, training error, val error, test error์ ํตํด generalization error์ ์ต์ํํ๋๋ก ํ๋ ๋ ธ๋ ฅ์ ํ๊ฒ ๋จ - loss function=cost function 2. Bias-variance trade-off - bias์ variance์ trade off๋ฅผ ์ ์กฐ์ ํด์ ์ต์ ์ generalization error๋ฅผ ๋ง๋๋ ๊ฒ์ด ์ค์ํจ - ๋ฅ.. 2023. 7. 8. ์ด์ 1 2 ๋ค์ 728x90 ๋ฐ์ํ