๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
Deep Learning/2023 DL ๊ธฐ์ดˆ ์ด๋ก  ๊ณต๋ถ€

[ํŒŒ์ด์ฌ ๋”ฅ๋Ÿฌ๋‹ ํŒŒ์ดํ† ์น˜] Part2

by ์ œ๋ฃฝ 2023. 7. 8.
728x90
๋ฐ˜์‘ํ˜•

 

01 ์ธ๊ณต์ง€๋Šฅ(๋”ฅ๋Ÿฌ๋‹)์˜ ์ •์˜์™€ ์‚ฌ๋ก€
1.1 ์ธ๊ณต์ง€๋Šฅ์ด๋ž€

 

1.2 ์ธ๊ณต์ง€๋Šฅ์˜ ์‚ฌ๋ก€
  1. ์ด๋ฏธ์ง€ ๋ถ„๋ฅ˜
  1. ๊ฐ์ฒด ํƒ์ง€( ์ด๋ฏธ์ง€์— ํฌํ•จ๋˜์–ด ์žˆ๋Š” ๋ฌผ์ฒด๊ฐ€ ๋ญ”์ง€ ์•Œ์•„๋‚ด๋Š”๊ฑฐ ex) ์Ÿค๋Š” ์ž๋™์ฐจ์•ผ)
  1. ํ…์ŠคํŠธ
    • ๊ธฐ๊ณ„ ๋ฒˆ์—ญ
    • ๋ฌธ์žฅ ๋ถ„๋ฅ˜
    • ์งˆ์˜ ์‘๋‹ต ์‹œ์Šคํ…œ
    • ๊ฐœ์ฒด๋ช… ์ธ์‹
  1. ์•ŒํŒŒ๊ณ 
  1. GAN(Generative Adversarial Networks)
    • ๊ณ ๋ฏผ์„ฑ์”จ ์ปจํผ ํ”„๋กœ์ ํŠธ ๊ฐ™์€
    • ์ง€๋“ค์ด output์„ ๋งŒ๋“ค์–ด๋‚ด๋Š”
  1. Style Transfer
  • ์—ฌ๋ฆ„ ํ’๊ฒฝ์„ ๊ฒจ์šธ ํ’๊ฒฝ์œผ๋กœ
  • ์ด๋ฏธ์ง€ ๋ณ€๊ฒฝ?
  1. deepfake
02 ํŒŒ์ดํ† ์น˜
03 ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ •์˜์™€ ์ข…๋ฅ˜
3.1 ๋จธ์‹ ๋Ÿฌ๋‹์ด๋ž€
3.2 ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ข…๋ฅ˜
  • ๋ชจ๋ธ ํ•™์Šต
  • ์†์‹คํ•จ์ˆ˜

 

3.3 ๋จธ์‹ ๋Ÿฌ๋‹์˜ ๊ตฌ๋ถ„ ๋ฐ ์ง€๋„ํ•™์Šต ๋ชจ๋ธ์˜ ์ข…๋ฅ˜
  • ์ง€๋„ ํ•™์Šต VS ๋น„์ง€๋„ ํ•™์Šต VS ๊ฐ•ํ™”ํ•™์Šต
  • 1. ์ง€๋„ํ•™์Šต
    • ์„ ํ˜• ํšŒ๊ท€ ๋ชจ๋ธ
    • ํšŒ๊ท€ ๊ณ„์ˆ˜ ์ถ•์†Œ ๋ชจ๋ธ (Lasso, Ridge, ElasticNet)
      • ์˜คํžˆ๋ ค ๋ณ€์ˆ˜ ๋งŽ์œผ๋ฉด ๋ชจ๋ธ ํšจ๊ณผ x
    • ์˜์‚ฌ๊ฒฐ์ •๋‚˜๋ฌด
    • K-NN
      • ๋ถ„๋ฅ˜ ์˜ˆ์ธก ์‹œ์— ์ƒˆ๋กœ์šด ๋ฐ์ดํ„ฐ ๋„ฃ๊ณ  ๊ทธ ์ฃผ๋ณ€ ๋ฐ์ดํ„ฐ ์ •๋ณด ์ˆ˜ํ•ฉํ•ด์„œ output ์ถ”์ถœ
    • ์‹ ๊ฒฝ๋ง
    • SVM
      • ๊ณผ์ ํ•ฉ ๋ฌธ์ œ์— ๋Œ€ํ•œ ํ•ด๊ฒฐ์ฑ… ์ œ์‹œ ( ๊ฐ€์šด๋ฐ ์„  ๊ธ‹๋Š” )
    • Ensemble Learning
      • bagging
      • randomforest
      • boosting
      • stacking
  • 2. ๋น„์ง€๋„ํ•™์Šต
    • ๊ตฐ์ง‘ํ™”
    • ์ฐจ์› ์ถ•์†Œ๋ฒ•
  • 3. ๊ฐ•ํ™”ํ•™์Šต
    • ์•ŒํŒŒ๊ณ 
    • ํ˜„์žฌ ์ƒํƒœ, ํ–‰๋™, ๋ณด์ƒ, ๋‹ค์Œ ์ƒํƒœ์˜ ๋ฐ์ดํ„ฐ?๊ฐ€ ์žˆ์–ด์•ผ ⇒ ์ง€๋„ ๋ฐ ๋น„์ง€๋„์™€๋Š” ์กฐ๊ธˆ ๋‹ค๋ฅธ ์„ฑ๊ฒฉ
04 ๊ณผ์ ํ•ฉ
4.1 ํ•™์Šตํ•  ์ƒ˜ํ”Œ ๋ฐ์ดํ„ฐ ์ˆ˜์˜ ๋ถ€์กฑ
4.2 ํ’€๊ณ ์ž ํ•˜๋Š” ๋ฌธ์ œ์— ๋น„ํ•ด ๋ณต์žกํ•œ ๋ชจ๋ธ ์‚ฌ์šฉ
  • ๋ชธ๋ฌด๊ฒŒ ์˜ˆ์ธกํ•˜๋Š”๊ฑด๋ฐ ์“ธ๋ฐ์—†์ด ์†ํ†ฑ๊ธธ์ด, ํŒ” ๊ธธ์ด ์ด๋Ÿฐ ๋ณ€์ˆ˜๋“ค๊นŒ์ง€ ์žˆ๋Š” ๊ฒฝ์šฐ (๋ณ€์ˆ˜ ๋งŽ์ด ์‚ฌ์šฉ)
  • ๋ชจ๋ธ ์ž์ฒด๊ฐ€ ๋ณต์žกํ•œ ๊ฒฝ์šฐ(SVM, ๋”ฅ๋Ÿฌ๋‹)
4.3 ์ ํ•ฉ์„ฑ ํ‰๊ฐ€ ๋ฐ ์‹คํ—˜ ์„ค๊ณ„(Training, Validation, Test, Cross Validation)
  • ํ•™์Šต ๋ฐ์ดํ„ฐ
  • ๊ฒ€์ฆ ๋ฐ์ดํ„ฐ
  • ํ…Œ์ŠคํŠธ ๋ฐ์ดํ„ฐ
  • K-Fold Cross Validation
05 ์ธ๊ณต ์‹ ๊ฒฝ๋ง
5.1 ํผ์…‰ํŠธ๋ก 
  • MLP
  • Feed Forward
  • Back Propagation
  • ํ™œ์„ฑํ™” ํ•จ์ˆ˜(์‹œ๊ทธ๋ชจ์ด๋“œ)
    • ํ™œ์„ฑํ™” ํ•จ์ˆ˜ ํ™œ์šฉํ•˜๋Š” ์ด์œ : ์šฐ๋ฆฌ๊ฐ€ ํ’€๊ณ ์ž ํ•˜๋Š” ๊ฒƒ์ด ๋น„์„ ํ˜•์ ์ธ ๋ณต์žกํ•œ ๋ฌธ์ œ๋ผ์„œ ๋น„์„ ํ˜• ๋ชจ๋ธ๋กœ ์‚ฌ์šฉ
  • ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•
  • Universal Approximation Theorem
    • ์€๋‹‰์ธต์ด 1๊ฐœ ์ด์ƒ์ธ ์‹ ๊ฒฝ๋ง์€ ํ•™์Šต ๋ฐ์ดํ„ฐ ๋‚ด์—์„œ ์–ด๋–ค ํ•จ์ˆ˜๋“  ๊ทผ์‚ฌ์‹œํ‚ฌ ์ˆ˜ ์žˆ๋‹ค๋Š” ์ด๋ก 
    • ํ•™์Šต ๋ฐ์ดํ„ฐ ๋‚ด์—์„œ ์–ด๋–ค ๋ชจ๋ธ์ด๋“  ๋งŒ๋“ค ์ˆ˜ ์žˆ๋‹ค๋Š”
    • → ๊ณผ์ ํ•ฉ ๋ฐœ์ƒ
5.2 ์‹ ๊ฒฝ๋ง ๋ชจํ˜•์˜ ๋‹จ์ 
  • ๊ณผ์ ํ•ฉ
  • ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค Gradient Vanishing problem
06 ์„ฑ๋Šฅ ์ง€ํ‘œ
  • ๋ถ„๋ฅ˜ ๋ชจํ˜•์—์„œ ์‚ฌ์šฉํ•˜๋Š” ์ง€ํ‘œ
  • MSE
    • ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ ๊ฐ’์˜ ์ฐจ์ด์— ๋Œ€ํ•œ ํ‰๊ท  ์ œ๊ณฑํ•ฉ
  • MAPE
    • MSE์˜ ์ ˆ๋Œ€์  ์ง€ํ‘œ
    • ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ ๊ฐ’์˜ ์ฐจ์ด๋ฅผ ์‹ค์ œ ๊ฐ’์œผ๋กœ ๋‚˜๋ˆ  ์‹ค์ œ ๊ฐ’ ๋Œ€๋น„ ๋ช‡ % ์ •๋„์˜ ์˜ค์ฐจ๊ฐ€ ์žˆ๋Š”๊ฐ€์— ๋Œ€ํ•œ ์„ฑ๋Šฅ ์ง€ํ‘œ
  • ์ •ํ™•๋„
    • ์˜ณ๊ฒŒ ๋ถ„๋ฅ˜๋œ ๋ฐ์ดํ„ฐ ์ˆ˜ (TP+TN) /์ „์ฒด ๋ฐ์ดํ„ฐ ์ˆ˜ (TP+FN+FP+TN)
  • F1-Measure(F1-score)
    • precision๊ณผ recall์˜ ์กฐํ™” ํ‰๊ท 

 

 


728x90
๋ฐ˜์‘ํ˜•