๋ ์ง: 2023๋ 7์ 8์ผ
Part 1. SL Foundation
1.Supervised Learning
- label๊ฐ์ด ์๋ ๊ฒ์ ๋งํจ
- training๊ณผ test ๋จ๊ณ๊ฐ ์กด์ฌํจ
- feature์ ๊ฒฝ์ฐ, domain ์ง์์ด ์ด๋ ์ ๋ ํ์ํจ
- ๋ฅ๋ฌ๋์ ๊ฒฝ์ฐ, feature๋ฅผ ์ค์ค๋ก ํ์ตํ๊ธฐ๋ ํจ
- SL์ ๊ฒฝ์ฐ, training error, val error, test error์ ํตํด generalization error์ ์ต์ํํ๋๋ก ํ๋ ๋ ธ๋ ฅ์ ํ๊ฒ ๋จ
- loss function=cost function
2. Bias-variance trade-off
- bias์ variance์ trade off๋ฅผ ์ ์กฐ์ ํด์ ์ต์ ์ generalization error๋ฅผ ๋ง๋๋ ๊ฒ์ด ์ค์ํจ
- ๋ฅ๋ฌ๋๊ณผ ๊ฐ์ model์ ๊ณ ์ฐจ์์ data๋ฅผ ์ฌ์ฉํ๊ธฐ ๋๋ฌธ์ ๋ณต์ก๋๊ฐ ์ฆ๊ฐํจ
- ๋ฐ์ดํฐ ์์ ๋นํด ๋ณต์ก๋๊ฐ ์ฆ๊ฐ => ์ค๋ฒํผํ ๋ฐ์์ด ์ฆ๊ฐ => ์ฐจ์์ ์ ์ฃผ๋ผ๊ณ ์นญํจ
=> data augmentation, regularization, ensemble์ ํตํด ํด๊ฒฐ ๊ฐ๋ฅ
3. k-fold cross validation
- k๊ฐ์ fold๋ก ๋๋ , 1๊ฐ์ ๊ทธ๋ฃน์ val๋ก, ๋๋จธ์ง๋ train์ผ๋ก ์ฌ์ฉ
Part 2. Linear Regression
1. Linear model
- ์ฃผ์ด์ง ์ ๋ ฅ์ ๋ํด ์ถ๋ ฅ๊ณผ์ ์ ํ์ ์ธ ๊ด๊ณ๋ฅผ ์ถ๋ก ํ๋ ๋ชจ๋ธ
- ์ ํํฉ์ผ๋ก ๊ตฌ์ฑ
- ์ ํ model์ด์ง๋ง ๋ฐ๋์ ์ ๋ ฅ ๋ณ์์ ์ ํ์ผ ํ์๋ ์์
2. Optimization
- ์ต์ ์ ํ๋ผ๋ฏธํฐ ๊ตฌํ๊ธฐ
Part 3. Gradient Discent
- ์ํ์ ๋ณํ์ ๋ฐ๋ผ ์๋ ด ํํ๊ฐ ๋ฐ๋
- ์ํ๊ฐ์ด ๋๋ฌด ํฌ๋ฉด, ์ต์ ์ง์ ์ ์ฐพ๊ธฐ ์ด๋ ค์
1. Batch gradient descent
- m์ ๊ณ ๋ ค
- data๊ฐ ์ปค์ง์๋ก ๋ณต์ก๋๊ฐ ์ฆ๊ฐ
2. SGD
- noise ์ํฅ์ ๋ฐ๊ธฐ์ ์ฌ์
- m์ 1๋ก ๊ทน๋จ์ ์ผ๋ก ์ค์ธ ๊ฒ
- ์ํ ํ๋ํ๋ ์ฐ์ฐ ํด์ผ๋จ
โป Local Optimum
3. Momentum
- ๊ด์ฑ์ ๋ฒ์น
- ์ค๊ฐ์ 0์ ๋จธ๋ฌผ๋ฌ๋ ์ ์ ์๋ ์ต์ฑ์ ํ์ฉํด ๊ณ์ ์งํํ๊ฒ ๋ ํด์ฃผ๋ ๊ฒ
4. nestrov momentum
- gradient๋ฅผ ๋จผ์ ํ์ธํ๊ณ ์ ๋ฐ์ดํธ ์งํ
- momentum step์ ๊ฐ ์์ ์์ lookahead step์ ๊ณ์ฐํ๊ณ , ๋ ๋ฒกํฐ์ ํฉ์ผ๋ก์จ actual step์ ๊ฒฐ์ ํจ
5. AdaGrad
- ๊ฐ ๋ฐฉํฅ์ผ๋ก์ learning rate๋ฅผ ์ ์์ ์ผ๋ก ์กฐ์ ํด ํ์ต ํจ์จ์ ๋์
- learning rate๊ฐ ์์์ง๋ฉด์ ํ์ต์ด ์๋ ์ ์์
6. RMSProp
- AdaGrad๋ฅผ ๋ณด์ํ ๋ฐฉ์
7. Adam
- RMSProp+Momentum ๋ฐฉ์
8. ๊ณผ์ ํฉ
9. Regularization
Part 4. Linear Classification
1. Zero-One Loss
- ๋ด๋ถ์ logic์ ํ๋ณํด์ ๋ง์ผ๋ฉด 0 ํ๋ฆฌ๋ฉด 1 ์ถ๋ ฅํ๋ ํจ์
- ๋ฏธ๋ถํ ๊ฒฐ๊ณผ, gradient๊ฐ 0์ด ๋์ด๋ฒ๋ฆผ => ํ์ต์ด ๋ถ๊ฐ๋ฅํจ
2. Hinge Loss
- ์๋ฅผ ๋ณด์ํ loss
3. Cross-entropy Loss
- ํ๋ฅ ๊ฐ์ ์๋ก ๋น๊ต
- score์ ์ค์๊ฐ์ด๊ธฐ์ sigmoid ํจ์์ ๊ฐ์ ํ๋ฅ ํจ์๋ก mapping
-> logistic model์ด๋ผ๊ณ ํจ
4. Multiclass Classification
Part 5. Advanced Classification
1. SVM
2. Optimization
- Hard margin SVM
- Nonlinear transform & kernel trick
3. Kernel ํจ์
- linearly sepableํ์ง ์์ data sample ๋ค์ด ์๋ค๊ณ ํ ๋, ๊ทธ ์ฐจ์๋ฅผ ๋์ฌ linearly sepableํ๊ฒ ๋ง๋๋ ๊ณผ์
- ์ปค๋์ ์ข ๋ฅ
- polynomial kernel
- Gaussian radial basis function
- Hyperbolic tangent kernel
4. ANN
- ANN์ ๋ง์ด ์์ผ๋ฉด DNN
- linear activation function์ ์์ผ๋ฉด ๋ณด๋ค ๋ณต์กํ ํํ์ data๋ฅผ ๋ถ๋ฅํ ์ ์์
- XOR
- MLP(multilayer perceptron)
Part 6. Ensemble
1. Performance Evaluation in supervised learning
- Accuracy
- Precision
- Recall
- F1
์ด ์กด์ฌ
2. ROC Curve
3. Bagging
- ํ์ต๊ณผ์ ์์ training sample์ ๋๋คํ๊ฒ ๋๋ ์ ํ์ต
- n๊ฐ๋ก ๊ตฌ๋ถ
- low variance์ ์์ ์ ์ธ ์ฑ๋ฅ์ ์ ๊ณตํ๋๋ฐ ์ ์ฉํ ๋ฐฉ๋ฒ
- overfitting์ ๋ฌธ์ ์์ sample์ randomํ๊ฒ ์ ํํ๋ ๊ณผ์ ์์ data augmentation ํจ๊ณผ๋ฅผ ์ง๋ ์ ์์
- ๊ฐ๋จํ model์ ์งํฉ์ ์ผ๋ก ์ฌ์ฉํ ์ ์์
- bootstrapping: ๋ค์์ sample data set์ ์์ฑํด์ ํ์ตํ๋ ๋ฐฉ์์ ์๋ฏธํจ
4. Boosting
- Week classifier: bias๊ฐ ๋์ classifier
=> cascading์ ํ๊ฒ ๋๋ฉด ์ฐ์์ ์ธ ๊ณผ์ ์ ํตํด ์ฑ๋ฅ์ ์ฌ๋ฆด ์ ์๊ฒ ๋จ
'๋์ธํ๋ > 2023 LG Aimers 3๊ธฐ' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
Module 7. ๋ฅ๋ฌ๋ (Deep Learning) (KAIST ์ฃผ์ฌ๊ฑธ ๊ต์) (0) | 2023.07.15 |
---|---|
Module 6. ๊ฐํํ์ต (Reinforcement Learning) (๊ณ ๋ ค๋ํ๊ต ์ด๋ณ์ค ๊ต์) (0) | 2023.07.15 |
Module 4. Bayesian (๊ณ ๋ ค๋ํ๊ต ๊น์ฌํ) (0) | 2023.07.04 |
Module 3. SCM & ์์์์ธก (๊ณ ๋ ค๋ํ๊ต ์ดํ์ ๊ต์) (0) | 2023.07.04 |
Module 2. Mathmatics for ML (KAIST ์ ์ง์ฐ ๊ต์) (0) | 2023.07.04 |