๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
Deep Learning/2023 DL ๊ธฐ์ดˆ ์ด๋ก  ๊ณต๋ถ€

[Standford_cs231n] Lecture 3 ) Loss Functions and Optimization

by ์ œ๋ฃฝ 2023. 7. 8.
728x90
๋ฐ˜์‘ํ˜•

 

1. Loss Function
  • ์‚ฌ์ง„์—์„œ ๋ณด์ด๋Š” score๊ฐ€ ๋‚ฎ์„์ˆ˜๋ก W์˜ ์˜ํ–ฅ๋ ฅ๋„ ์•ˆ์ข‹์€ ๊ฒƒ์ด๋ผ๊ณ  ๋งํ•  ์ˆ˜ ์žˆ์Œ( ๋ถ„๋ฅ˜๋ฅผ ์ž˜ ํ•˜์ง€ ๋ชปํ–ˆ์œผ๋ฏ€๋กœ )
  • W๊ฐ€ ์ข‹๋‹ค ์•ˆ์ข‹๋‹ค ์ •๋„๋กœ ์ •๋Ÿ‰ํ™” ํ•  ์ˆ˜ ์žˆ๋Š” ๊ฒƒ์ด ํ•„์š”ํ•จ ⇒ loss function
  • W(๊ฐ€์ค‘์น˜)๊ฐ€ ์–ผ๋งŒํผ ์ข‹๊ณ  ์•ˆ์ข‹๋‹ค๋กœ ๋‚˜ํƒ€๋‚ผ ์ˆ˜ ์žˆ๋Š” ํ•จ์ˆ˜๊ฐ€ ๋ฐ”๋กœ ์†์‹คํ•จ์ˆ˜์ž„.
  1. SVM loss( hinge loss )
  1. softmax loss( cross entropy )
1-1) Multiclass SVM loss
  • ์ •๋‹ตํด๋ž˜์Šค≥์ •๋‹ต์•„๋‹Œํด๋ž˜์Šค+1 ⇒ loss=0 ( ๋งค์šฐ ์ข‹์Œ )

ex)

  1. cat๊ณผ car์˜ ๊ฒฝ์šฐ : ์ •๋‹ตํด๋ž˜์Šค(3.2)≥์ •๋‹ต์•„๋‹Œํด๋ž˜์Šค(5.1)+1 ์ด ์•„๋‹ˆ๋ฏ€๋กœ ํ•ด๋‹น ๊ฐ’์„ loss ๊ฐ’์œผ๋กœ
  1. cat๊ณผ frog์˜ ๊ฒฝ์šฐ : ์ •๋‹ตํด๋ž˜์Šค(3.2)≥ ์ •๋‹ต์•„๋‹Œํด๋ž˜์Šค(-1.7)+1 ์ด๋ฏ€๋กœ loss ๊ฐ’์€ 0
  1. car frog class๋„ ๋‹ค ํ•ด์คŒ
  • ๋‹ค ๋”ํ•ด์ค€ ํ›„ ํ‰๊ท ๊ฐ’ ⇒ ์ตœ์ข… loss

์ถ”๊ฐ€ SVM loss ํŠน์ง•

  • 1. ๋ฐ์ดํ„ฐ์— ๋ฏผ๊ฐํ•˜์ง€ ์•Š์Œ
    • score ๊ฐ’์„ ๋ฐ”๊พผ๋‹ค ํ•ด๋„ loss๋Š” ๋˜‘๊ฐ™์ด 0์ž„
    • cat์— +1 ํ•˜๋˜์ง€ frog์— +1 ํ•˜๋˜์ง€ ์ž๋™์ฐจ ๊ฐ’์ด ๋” ๋†’๊ธฐ ๋•Œ๋ฌธ์ž„.⇒ ์ •๋‹ต ํด๋ž˜์Šค๊ฐ€ ๋‹ค๋ฅธ ํด๋ž˜์Šค๋ณด๋‹ค ๋†’๋ƒ ์—๋งŒ ๊ด€์‹ฌ์„ ๊ฐ€์ง.
  • 2. ์ตœ์†Œ, ์ตœ๋Œ“๊ฐ’ (์ตœ์†Œ: 0 ๊ฐ’, ์ตœ๋Œ“๊ฐ’: ๋ฌดํ•œ๋Œ€)
  • 3. W๊ฐ€ ์ž‘์•„์ ธ์„œ score๊ฐ€ 0์— ๊ทผ์‚ฌํ•ด์ง€๋ฉด class-1๊ฐ’์ด ๋‚˜์˜ด.

    ex)

    ํด๋ž˜์Šค๊ฐ€ 3์ธ ๊ฒฝ์šฐ: 2+2+2/3 ⇒ 2

    ํด๋ž˜์Šค๊ฐ€ 10์ธ ๊ฒฝ์šฐ: 9+9+9+,,,,,,/10 ⇒ 9

    sanity check๋ผ๊ณ ๋„ ๋ถ€๋ฆ„.

  • 4. ์ •๋‹ต ํด๋ž˜์Šค ๊ฐ’ ์ œ์™ธ์‹œํ‚ค๋ฉด loss+1๊ฐ’์ด ๋˜์–ด๋ฒ„๋ฆผ

    ⇒ ๊ทธ๋Ÿด๊ฒฝ์šฐ loss๊ฐ€ 1์ผ ๋•Œ๊ฐ€ ๊ฐ€์žฅ ์ข‹์€ ๊ฐ’์ด ๋˜์–ด๋ฒ„๋ฆฌ๋Š”๋ฐ 0์ด ๊ฐ€์žฅ ์ข‹๋‹ค ๋ผ๊ณ  ํ‘œํ˜„ํ•˜๋Š”๊ฒŒ ๋” ํŽธํ•˜๊ธฐ ๋•Œ๋ฌธ์— ์ •๋‹ต ํด๋ž˜์Šค๋Š” ์ œ์™ธ์‹œํ‚ด.

  • 5. sum ๋Œ€์‹  ํ‰๊ท  ์‚ฌ์šฉํ•  ๊ฒฝ์šฐ: ๊ฐ’์˜ ๋ณ€ํ™”๋Š” ์—†์Œ(ํ‰๊ท ํ•˜๊ธฐ์— scale๋งŒ ์ž‘์•„์ง)
  • 6. ์ œ๊ณฑ์Šน ํ•  ๊ฒฝ์šฐ: ๊ฐ’์ด ๋‹ฌ๋ผ์ง( ๊ทน๊ณผ ๊ทน์œผ๋กœ ํ‘œํ˜„ํ•˜๊ธฐ์— ์ข‹์Œ)

    ⇒ ๋งค์šฐ ์ข‹๊ณ  ๋งค์šฐ ์•ˆ์ข‹๋‹ค๋กœ ํ‘œํ˜„ ๊ฐ€๋Šฅํ•˜์ง€๋งŒ ์ž˜ ์•ˆ์“ด๋‹ค.

    ⇒ ๋น„์„ ํ˜•๋จ ⇒ squared hinge loss๋ผ๊ณ  ๋ถ€๋ฆ„

  • 7. ์ด ์นœ๊ตฌ์˜ ๋ฌธ์ œ์ 

    ⇒ W๊ฐ€ ์—ฌ๋Ÿฌ๊ฐœ๊ฐ€ ๋  ์ˆ˜ ์žˆ์Œ.

    ⇒ score์— 2,3๋ฐฐ๋ฅผ ํ•ด๋„ ๊ฐ’์ด ๊ฐ™๊ฒŒ ๋‚˜์™€๋ฒ„๋ฆผ

    ์ฆ‰, W๊ฐ€ ์—ฌ๋Ÿฌ๊ฐœ๊ฐ€ ๋‚˜์˜จ๋‹ค๋Š” ๊ฒƒ ⇒ uniqueํ•œ W๊ฐ€ ์—†๋‹ค๋Š” ๊ฒƒ์„ ์˜๋ฏธํ•˜๊ธฐ๋„ ํ•จ.

    ๊ทธ๋ž˜์„œ ๋‚˜์˜จ ๊ฒƒ์ด ๊ทœ์ œ์ž„.

1-2) Regularization
  • loss๊ฐ’์ด ์ค„์–ด๋“ ๋‹ค๊ณ  ํ•ด์„œ ์ข‹์€ model์ด๋ผ๊ณ ๋Š” ํ•  ์ˆ˜ ์—†์Œ ⇒ ์˜ค๋ฒ„ํ”ผํŒ… ๋ฌธ์ œ๊ฐ€ ๋ฐœ์ƒ.
  • ๋ฟ๋งŒ ์•„๋‹ˆ๋ผ ์œ„์˜ svm loss์˜ ๋ฌธ์ œ์ ์ธ W๊ฐ’์ด ์—ฌ๋Ÿฌ๊ฐœ๊ฐ€ ๋œ๋‹ค๋Š” ์ ์—์„œ ๊ทœ์ œํ™”๊ฐ€ ๋‚˜์˜ด

ex) train์—๊ฒŒ๋งŒ ๋งž๋Š” ๊ฒƒ์„ ํ•™์Šต์‹œํ‚ค๋ ค๊ณ  ํ•  ๋•Œ ์ด ์ •๋„์˜ ํŒจ๋„ํ‹ฐ๋Š” ๊ฐ์•ˆํ•ด์•ผ๋ผ~ ⇒ ๊ทœ์ œํ™”์˜ ๊ธฐ๋ณธ ๋œป.

  • L1 regularization(Lasso)๊ธฐ์กด cost function ๋’ค์— L1ํ•ญ ์ถ”๊ฐ€.
    • weight ๊ฐ’์ด 0์œผ๋กœ ์ˆ˜๋ ดํ•˜๋Š” ๊ฒƒ์ด ๋งŽ์€ ํ˜•ํƒœ. ์ด๋ฅผ Sparse matrix(ํฌ์†Œ ํ–‰๋ ฌ)๋ผ๊ณ  ํ•จ
    • ์œ„์—์„œ 0์˜ ๊ฐ’์ด ๋งŽ๋‹ค๋Š” ์ด์•ผ๊ธฐ๋Š” ์–ด๋–ค ํŠน์ง•๋“ค์€ ๋ฌด์‹œํ•˜๊ฒ ๋‹ค๋Š” ์ด์•ผ๊ธฐ๋กœ ๋ณผ ์ˆ˜ ์žˆ์Œ.
  • L2 regularization(Ridge)
    • weight์˜ ๊ฐ’์ด ํฐ ๊ฐ’์€ ์ ์  ์ค„์ด๋ฉฐ ๋Œ€๋ถ€๋ถ„์˜ ๊ฐ’๋“ค์ด 0์˜ ๊ฐ€๊นŒ์šด ๊ฐ’์„ ๊ฐ€์ง€๋Š” ๊ฐ€์šฐ์‹œ์•ˆ ๋ถ„ํฌ๋ฅผ ๊ฐ€์ง.
    • weight์ด 0์ด ์•„๋‹ˆ๋ผ๋Š” ์ ์—์„œ ๋ชจ๋“  ํŠน์ง•๋“ค์„ ๋ฌด์‹œํ•˜์ง€ ์•Š๊ณ  ์กฐ๊ธˆ์”ฉ์€ ์ฐธ๊ณ  ํ•˜๊ฒ ๋‹ค๋ผ๊ณ  ๋ณผ ์ˆ˜ ์žˆ์Œ.
    • ์ด๋Ÿด ๊ฒฝ์šฐ, L1์€ w1์„ ์„ ํ˜ธํ•จ → 0 ์ด ๋งŽ๊ธฐ ๋•Œ๋ฌธ
    • w2๋Š” L2๊ฐ€ ์„ ํ˜ธํ•จ → ์ „์ฒด์ ์œผ๋กœ 0์— ๊ฐ€๊น๊ฒŒ ํผ์ ธ์žˆ๊ธฐ์—.

    ⇒ ๋งŒ์•ฝ (1,0) vector๊ฐ€ ์žˆ์„ ๋•Œ, L1์œผ๋กœ ๊ณ„์‚ฐํ•˜๋ฉด |1|+|0|=1์ด ๋˜๊ณ  L2๋กœ ๊ณ„์‚ฐํ•˜์—ฌ๋„ 1+0=1์ด ๋จ.⇒ ๊ฐ’์ด ๊ท ๋“ฑํ•˜๊ฒŒ ์ž‘์„ ๋•Œ์—๋Š” L2์˜ ๊ฐ’์ด ๋” ์ž‘์•„์ง€๊ฒŒ ๋จ. ๋”ฐ๋ผ์„œ Error์— ๋” ์ž‘์€ penalty๋ฅผ ์ฃผ๊ฒŒ ๋จ์ฆ‰, L1์˜ ๊ฒฝ์šฐ, ๊ฐ’์ด ์ž‘์•„์ง„๋‹ค ํ•œ๋“ค
    • L1, L2 ์—ฐ์‚ฐํ•œ ๊ฐ’์„ Error์— ๋”ํ•˜๋ฏ€๋กœ ์—ฐ์‚ฐ ๊ฒฐ๊ณผ๊ฐ€ ์ž‘์•„์ง€๋Š” ๊ฐ’์„ ์„ ํ˜ธํ•ฉ๋‹ˆ๋‹ค. ์ด ๊ฐ’์ด ๋„ˆ๋ฌด ์ปค์ ธ ๋ฒ„๋ฆฌ๋ฉด ์˜คํžˆ๋ ค ํ•™์Šตํ•˜๋Š” ๋ฐ ๋ฐฉํ•ด๊ฐ€ ๋  ์ˆ˜ ์žˆ๊ธฐ ๋•Œ๋ฌธ์ž…๋‹ˆ๋‹ค. ๋”ฐ๋ผ์„œ L1 ๋ณด๋‹ค L2๋ฅผ ๋งŽ์ด ์‚ฌ์šฉํ•˜๋Š” ์ด์œ ์ด๊ธฐ๋„ ํ•จ.
    ?????
  •  
  •  
  • ⇒ ๋ฐ˜๋ฉด (0.5,0.5) vector๊ฐ€ ์žˆ์„ ๋•Œ, L1์œผ๋กœ ๊ณ„์‚ฐํ•˜๋ฉด |0.5|+|0.5|=1์ด ๋˜์ง€๋งŒ L2๋กœ ๊ณ„์‚ฐํ•˜๋ฉด 0.52+0.52=0.25+0.25=0.5๊ฐ€ ๋จ. 
  • ์˜๋ฌธ์ : ์™œ L1์€ ํ”ผ์ฒ˜ ์„ค๋ ‰์…˜ ๋Š๋‚Œ์ด ๋˜๊ณ , L2๋Š” ๊ท ๋“ฑํ•œ ํ”ผ์ฒ˜์— ์œ ์šฉํ•œ์ง€?
1-3) Softmax Classifier(cross entropy)
  • ์›ํ•˜๋Š” ํด๋ž˜์Šค์˜ ์ ์ˆ˜๋ฅผ exp ์ทจํ•ด์„œ ๋‚˜๋ˆ ์คŒ
  • ์ดํ›„, -log๋ฅผ ์ทจํ•œ ํ›„ loss๋ฅผ ๊ตฌํ•จ⇒ exp๋ฅผ ์ทจํ•˜๊ณ , -log๋ฅผ ์ทจํ•˜๋Š” ์ด์œ ๋Š” ๋ฌด์—‡์ผ๊นŒ?
    1. softmax๋Š” multinomial logistic regression(์‹œ๊ทธ๋ชจ์ด๋“œ- ๋กœ์ง€์Šคํ‹ฑ)⇒ ๋”ฐ๋ผ์„œ exp๋ฅผ ์‚ฌ์šฉ
    1. -log ์ทจํ•˜๋Š” ์ด์œ ๋Š” -๋ฅผ ๊ณฑํ•˜๊ฒŒ ๋˜๋ฉด ํ™•๋ฅ (y)๊ฐ’์ด 1์ด ๋ ์ˆ˜๋ก log1 ⇒ 0์— ๊ฐ€๊นŒ์›Œ์ง ⇒ ๋”ฐ๋ผ์„œ -log๋ฅผ ์ทจํ•ด loss๊ฐ’์„ ๊ตฌํ•ด์คŒ.

 

1-4) svm loss์™€ softmax classifier์˜ ์ฐจ์ด
  • ๋‘”๊ฐ vs ๋ฏผ๊ฐ ์ฐจ์ด
  • hinge loss์˜ ๊ฒฝ์šฐ ๊ทธ๋ƒฅ ์ •๋‹ต ํด๋ž˜์Šค๊ฐ€ ์ •๋‹ต ์•„๋‹Œ ํด๋ž˜์Šค +1 ๋ณด๋‹ค ํฌ๋ฉด ๋์ž„
  • softmax์˜ ๊ฒฝ์šฐ, ํ™•๋ฅ ๋กœ ๊ณ„์‚ฐ๋˜๊ธฐ ๋•Œ๋ฌธ์—, ๋ฐ์ดํ„ฐ๊ฐ€ ์กฐ๊ธˆ๋งŒ ๋ฐ”๊ปด๋„ ํ™•๋ฅ ์ด ๋ง‰ ๋ฐ”๊ปด๋ฒ„๋ฆผ ⇒ ๊ฐœ๋ฏผ๊ฐ.
2. Optimization
  • w๊ฐ€ ์ข‹์€์ง€ ์•ˆ์ข‹์€์ง€์— ๊ด€ํ•œ loss ํ•จ์ˆ˜๋ฅผ ๊ตฌํ–ˆ์Œ ⇒ ์–ด๋–ป๊ฒŒ ํ•ด์•ผ ์ข‹์€ weight๋ฅผ ์ฐพ์•„๊ฐˆ ์ˆ˜ ์žˆ๋Š”๊ฐ€์— ๋Œ€ํ•œ ๋‹ต์ด ๋ฐ”๋กœ ์ตœ์ ํ™” ํŒŒํŠธ.
  • ์‚ฐ์†์—์„œ ๊ณจ์งœ๊ธฐ๋ฅผ ๋‚ด๋ ค๊ฐ€๋Š” ๊ฒƒ๊ณผ ๊ฐ™์Œ
  • loss๊ฐ€ 0์ธ ์ง€์ ์„ ์ฐพ์•„๊ฐ€๋Š” ๊ฒƒ.
2-1) Random search ์ž„์˜ ํƒ์ƒ‰
  1. ๊ทธ๋ƒฅ ๋žœ๋คํ•˜๊ฒŒ ํฌ์ธํŠธ๋ฅผ ์ฐพ๋Š” ๊ฒƒ.
  1. ์ž„์˜์˜ ์ ์ธ w๊ฐ’์„ ๋žœ๋คํ•˜๊ฒŒ ์ฐ๊ณ  ๊ฑฐ๊ธฐ์„œ ์ตœ์ ํ™” ๋ฐฉ๋ฒ•์„ ํ†ตํ•ด w๋ฅผ ๊ตฌํ•จ
  1. ์„ฑ๋Šฅ ์ฒœ์ฐจ๋งŒ๋ณ„
2-2) local geometry ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•
  1. ์ˆ˜์น˜์  ๋ฐฉ๋ฒ•
  1. ํ•ด์„์  ๋ฐฉ
  • h๋ฅผ 0์— ๊ฐ€๊น๊ฒŒ ์ด๋™
  • loss ๊ฐ์†Œ 1.25347 → 1.25322
  • ๊ฒฝ์‚ฌ๊ฐ’(๊ธฐ์šธ๊ธฐ): -2.5

์ด๋Ÿฌํ•œ ๋ฐฉ์‹์œผ๋กœ ๋ชจ๋“  W์— ๋Œ€ํ•ด์„œ ์ด๋ฅผ ๋ฐ˜๋ณตํ•˜๋ฉด ๋ชจ๋“  gradient dW ๊ฐ’์„ ๊ตฌํ•  ์ˆ˜ ์žˆ์Œ.

์ด ๋ฐฉ์‹์„ Numerical gradient๋ผ๊ณ  ํ•œ๋‹ค.

⇒ ๊ฐœ๋Š๋ฆผ

  • ๊ทธ๋ž˜์„œ ๋‚˜์˜จ ๋ฐฉ์‹์ด ํ•ด์„์  ๋ฐฉ๋ฒ•
  • W๊ฐ€ ๋ณ€ํ•  ๋•Œ loss๋ฅผ ์•Œ๊ณ  ์‹ถ์€ ๊ฒƒ๋ฟ์ž„. ⇒ ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•
2-3) Stochastic Gradient Descent
  • ๊ธฐ์กด Gradient Descent๋ฅผ ๊ตฌํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” loss function์ด ํ•„์š”ํ•จ
  • ์ด ๋•Œ ์ „์ฒด ํŠธ๋ ˆ์ด๋‹ ์…‹์˜ loss ํ‰๊ท ์„ ๊ตฌํ–ˆ์Œ
  • ⇒ ์‹œ๊ฐ„ ๊ฐœ์˜ค๋ž˜ ๊ฑธ๋ฆผ
  • ๊ทธ๋ž˜์„œ ์‚ฌ์šฉํ•˜๋Š” ๊ฒƒ์ด SGD ⇒ ๋ฏธ๋‹ˆ๋ฐฐ์น˜๋‹จ์œ„๋กœ ๋‚˜๋ˆˆ ํŠธ๋ ˆ์ด๋‹ ์ƒ˜ํ”Œ์„ ๋‚˜๋ˆ ์„œ ์‚ฌ์šฉํ•˜๋Š” ๋ฐฉ์‹
3. ํŠน์ง•๋ณ€ํ™˜(ํ”ผ์ฒ˜ ํŠน์ง• ์ถ”์ถœ๊ณผ ๊ฐ™์€ ๋ง)
  • ์‚ฌ์‹ค Linear Classification์€ ์ด๋ฏธ์ง€์—์„œ๋Š” ๊ทธ๋ฆฌ ์ข‹์€ ๋ฐฉ๋ฒ•์ด ์•„๋‹˜
  • ๊ทธ๋ž˜์„œ DNN์ด ์œ ํ–‰ํ•˜๊ธฐ ์ „์—๋Š” Linear Classifier๋ฅผ ์ด์šฉํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ๋‘๊ฐ€์ง€ ์Šคํ…Œ์ด์ง€๋ฅผ ๊ฑฐ์ณ์„œ ์‚ฌ์šฉ
  1. ์ด๋ฏธ์ง€์˜ ์—ฌ๋Ÿฌ๊ฐ€์ง€ ํŠน์ง•ํ‘œํ˜„์„ ๊ณ„์‚ฐ
    • ๋ชจ์–‘์ƒˆ, ์ปฌ๋Ÿฌ ํžˆ์Šคํ† ๊ทธ๋žจ, edge ํ˜•ํƒœ์™€ ๊ฐ™์€ ํŠน์ง•ํ‘œํ˜„์„ ์—ฐ๊ฒฐํ•œ ํŠน์ง•๋ฒกํ„ฐ
  1. ์ด ํŠน์ง•๋ฒกํ„ฐ๋ฅผ Linear Classifier์— ์ž…๋ ฅ๊ฐ’์œผ๋กœ ์‚ฌ์šฉ
3-1) ์ปฌ๋Ÿฌ ํžˆ์Šคํ† ๊ทธ๋žจ
  • ์ด๋ฏธ์ง€์— ๊ด€ํ•œ ๊ฐ ํ”ฝ์…€์„ ๋‹ค ์ถ”์ถœํ•ด์„œ ํ•ด๋‹นํ•˜๋Š” ์ƒ‰์— ํ”ฝ์…€๊ฐ’์„ ๋„ฃ๋Š” ๊ฐœ๋… ( ์ด ํ”ฝ์…€์€ ๋ฌด์Šจ ์ƒ‰์ธ๊ฐ€์— ๋Œ€ํ•œ ๊ฐฏ์ˆ˜ ์„ธ๊ธฐ)
  • ๊ฐœ๊ตฌ๋ฆฌ์˜ ๊ฒฝ์šฐ ์ดˆ๋ก์ƒ‰์ด ๋งŽ์Œ
  • ์ด๊ฑฐ์— ๋Œ€ํ•œ ํŠน์ง•์„ ํ”ผ์ฒ˜๋กœ ๋ฝ‘์•„ input์œผ๋กœ ์‚ฌ์šฉ.
3-2) Histogram of Oriented Gradient
  • ๋ฐฉํ–ฅ๊ฐ’์„ ํžˆ์Šคํ† ๊ทธ๋žจ์œผ๋กœ ํ‘œํ˜„ํ•˜๋Š” ๊ฒƒ.
  • 8*8 ํ”ฝ์…€๋กœ ๊ตฌ์„ฑ๋œ ๊ตฌ์—ญ์„ 9๊ฐ€์ง€์˜ ์—ฃ์ง€ ๊ตฌ์—ญ์œผ๋กœ ๋‚˜๋ˆ ์„œ ๊ฐ 9๊ฐ€์ง€์˜ bin์— ๋ช‡๊ฐœ๊ฐ€ ์†ํ•˜๋Š”์ง€๋ฅผ ํ”ผ์ฒ˜๋กœ ์ถ”์ถœํ•ด๋‚ธ ๊ฒƒ
  • ์ด๋ฏธ์ง€๋ฅผ 8*8๋กœ ์ž˜๋ผ์„œ ํ•ด๋‹น ๊ฐ’์— ์–ด๋–ค ๊ฐ๋„๊ฐ€ ๋งŽ์€์ง€๋ฅผ ํžˆ์Šคํ† ๊ทธ๋žจ์œผ๋กœ ๋‚˜ํƒ€๋‚ด์„œ ํŠน์ง• ์ถ”์ถœ.
  • ๋งˆ์ฐฌ๊ฐ€์ง€๋กœ ํ”ผ์ฒ˜๋กœ ๋ฝ‘์•„์„œ input์— ์‚ฌ์šฉ
3-3) Bag of words
  • ์ด๋ฏธ์ง€๋ฅผ ๋ง‰ ์ž๋ฆ„
  • ์ด๊ฑฐ๋ฅผ ํด๋Ÿฌ์Šคํ„ฐ๊ฐ™์€ ๊ฒƒ์œผ๋กœ ๊ตฐ์ง‘ํ™” ํ•จ
  • ๊ทธ๋Ÿฌ๋ฉด ๊ฐ๋„๋‚˜ ์ƒ‰๊น” ๋“ฑ์˜ ํŠน์ง•์ด ๋‚˜์˜ฌ ๊ฒƒ์ž„.
  • ์ดํ›„, ์ƒˆ๋กœ์šด ์ด๋ฏธ์ง€๊ฐ€ ๋“ค์–ด์˜ค๋ฉด ์ด๋ฏธ์ง€๋ฅผ ์ž˜๋ผ์„œ ๊ธฐ์กด์— ๋งŒ๋“  ํด๋Ÿฌ์Šคํ„ฐ๋ž‘ ๋น„๊ตํ•ด ์–ด๋–ค ํŠน์ง•์ด ์žˆ๋Š”์ง€ ๋น„๊ต

  • ์ด ๋ฐฉ๋ฒ•์€ NLP์—์„œ ์˜๊ฐ์„ ๋ฐ›์€ ๋ฐฉ์‹์œผ๋กœ, ์–ด๋–ค ๋ฌธ์žฅ์—์„œ ์—ฌ๋Ÿฌ ๋‹จ์–ด๋“ค์˜ ๋ฐœ์ƒ๋นˆ๋„๋ฅผ ์„ธ์„œ ํŠน์ง•๋ฒกํ„ฐ๋กœ ์‚ฌ์šฉํ•˜๋Š” ๋ฐฉ์‹์„ ์ด๋ฏธ์ง€์— ์ ์šฉํ•œ ๊ฒƒ์ž…๋‹ˆ๋‹ค.
  • ์šฐ๋ฆฌ๋Š” ์ด๋ฏธ์ง€๋“ค์„ ์ž„์˜๋Œ€๋กœ ์กฐ๊ฐ๋‚ด๊ณ , ๊ฐ ์กฐ๊ฐ์„ K-means์™€ ๊ฐ™์€ ์•Œ๊ณ ๋ฆฌ์ฆ˜์œผ๋กœ ๊ตฐ์ง‘ํ™” ํ•ฉ๋‹ˆ๋‹ค.
  • ๋‹ค์–‘ํ•˜๊ฒŒ ๊ตฌ์„ฑ๋œ ๊ฐ ๊ตฐ์ง‘๋“ค์€ ๋‹ค์–‘ํ•œ ์ƒ‰๊ณผ ๋‹ค์–‘ํ•œ ๋ฐฉํ–ฅ์— ๋Œ€ํ•œ edge๋„ ํฌ์ฐฉํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.
  • ์ด๋Ÿฌํ•œ ๊ฒƒ๋“ค์„ ์‹œ๊ฐ ๋‹จ์–ด(visual words) ๋ผ๊ณ  ๋ถ€๋ฆ…๋‹ˆ๋‹ค.

728x90
๋ฐ˜์‘ํ˜•