๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
728x90
๋ฐ˜์‘ํ˜•

ํŒŒ์ด์ฌ ๋”ฅ๋Ÿฌ๋‹ ํŒŒ์ดํ† ์น˜3

[ํŒŒ์ด์ฌ ๋”ฅ๋Ÿฌ๋‹ ํŒŒ์ดํ† ์น˜] Part2 01 ์ธ๊ณต์ง€๋Šฅ(๋”ฅ๋Ÿฌ๋‹)์˜ ์ •์˜์™€ ์‚ฌ๋ก€ 1.1 ์ธ๊ณต์ง€๋Šฅ์ด๋ž€ 1.2 ์ธ๊ณต์ง€๋Šฅ์˜ ์‚ฌ๋ก€ ์ด๋ฏธ์ง€ ๋ถ„๋ฅ˜ ๊ฐ์ฒด ํƒ์ง€( ์ด๋ฏธ์ง€์— ํฌํ•จ๋˜์–ด ์žˆ๋Š” ๋ฌผ์ฒด๊ฐ€ ๋ญ”์ง€ ์•Œ์•„๋‚ด๋Š”๊ฑฐ ex) ์Ÿค๋Š” ์ž๋™์ฐจ์•ผ) ํ…์ŠคํŠธ ๊ธฐ๊ณ„ ๋ฒˆ์—ญ ๋ฌธ์žฅ ๋ถ„๋ฅ˜ ์งˆ์˜ ์‘๋‹ต ์‹œ์Šคํ…œ ๊ฐœ์ฒด๋ช… ์ธ์‹ ์•ŒํŒŒ๊ณ  GAN(Generative Adversarial Networks) ๊ณ ๋ฏผ์„ฑ์”จ ์ปจํผ ํ”„๋กœ์ ํŠธ ๊ฐ™์€ ์ง€๋“ค์ด output์„ ๋งŒ๋“ค์–ด๋‚ด๋Š” Style Transfer ์—ฌ๋ฆ„ ํ’๊ฒฝ์„ ๊ฒจ์šธ ํ’๊ฒฝ์œผ๋กœ ์ด๋ฏธ์ง€ ๋ณ€๊ฒฝ? deepfake 02 ํŒŒ์ดํ† ์น˜ 03 ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ •์˜์™€ ์ข…๋ฅ˜ 3.1 ๋จธ์‹ ๋Ÿฌ๋‹์ด๋ž€ 3.2 ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ข…๋ฅ˜ ๋ชจ๋ธ ํ•™์Šต ์†์‹คํ•จ์ˆ˜ 3.3 ๋จธ์‹ ๋Ÿฌ๋‹์˜ ๊ตฌ๋ถ„ ๋ฐ ์ง€๋„ํ•™์Šต ๋ชจ๋ธ์˜ ์ข…๋ฅ˜ ์ง€๋„ ํ•™์Šต VS ๋น„์ง€๋„ ํ•™์Šต VS ๊ฐ•ํ™”ํ•™์Šต 1. ์ง€๋„ํ•™์Šต ์„ ํ˜• ํšŒ๊ท€ ๋ชจ๋ธ ํšŒ๊ท€ ๊ณ„์ˆ˜ ์ถ•์†Œ ๋ชจ๋ธ (Lasso.. 2023. 7. 8.
[ํŒŒ์ด์ฌ ๋”ฅ๋Ÿฌ๋‹ ํŒŒ์ดํ† ์น˜] Part3 ๊ธฐ์กด ์‹ ๊ฒฝ๋ง์˜ ๋‹จ์ : ๊ณผ์ ํ•ฉ Gradient Vanishing ++ Internal Covariance Shift ํ˜„์ƒ ๋ฐœ์ƒ ( Input ๋ถ„ํฌ๊ฐ€ ๋‹ฌ๋ผ์ง์— ๋”ฐ๋ผ ํ•™์Šต ์†๋„๊ฐ€ ๋Š๋ ค์ง€๋Š” ํ˜„์ƒ ⇒ ์ด๋ฅผ ์™„ํ™”์‹œํ‚ค๊ณ ์ž ๋”ฅ๋Ÿฌ๋‹์ด ๋‚˜์˜ค๊ฒŒ ๋จ ๊ณผ์ ํ•ฉ๊ณผ ๊ธฐ์šธ๊ธฐ ๊ฐํ‡ด ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•œ ๋”ฅ๋Ÿฌ๋‹ ๋ฐฉ๋ฒ• drop - out ํ•™์Šต ์‹œ์—๋Š” dropout ์‹คํ–‰ ํ‰๊ฐ€ ์‹œ์—๋Š” drop out ์‚ฌ์šฉx (๋ชจ๋“  ๋…ธ๋“œ๋ฅผ ํ™œ์šฉํ•ด output ๊ณ„์‚ฐ) activation ํ•จ์ˆ˜ relu ํ•จ์ˆ˜ ์ž…๋ ฅ ๊ฐ’์ด 0 ์ด์ƒ ๋ถ€๋ถ„์ด๋ฉด ๊ธฐ์šธ๊ธฐ 1, 0 ์ดํ•˜ ๋ถ€๋ถ„์€ 0 ⇒ ๋”ฐ๋ผ์„œ ์•„์˜ˆ ์—†์–ด์ง€๊ฑฐ๋‚˜ ์™„์ „ํžˆ ์‚ด๋ฆฌ๋Š” ๊ฒƒ์œผ๋กœ ํ•ด์„ ๊ฐ€๋Šฅ ⇒ ๋ ˆ์ด์–ด๊ฐ€ ๊นŠ์–ด์ ธ๋„ Gradient Vanishing์ด ์ผ์–ด๋‚˜๋Š” ๊ฒƒ์„ ์™„ํ™”์‹œํ‚ด Batch Normalization Internal Covarian.. 2023. 7. 8.
[ํŒŒ์ด์ฌ ๋”ฅ๋Ÿฌ๋‹ ํŒŒ์ดํ† ์น˜] Part5 part5-1 Data & Task: ์–ด๋–ค ๋ฐ์ดํ„ฐ๊ฐ€ ์žˆ์„๊นŒ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ(NLP) : text ๋ฐ์ดํ„ฐ๋ฅผ ๋ถ„์„ํ•˜๊ณ  ๋ชจ๋ธ๋ง ํ•˜๋Š” ๋ถ„์•ผ (NLU+NLG) ์ž์—ฐ์–ด ์ดํ•ด(NLU): ์ž์—ฐ์–ด ์ดํ•ดํ•˜๋Š” ์˜์—ญ ์ž์—ฐ์–ด ์ƒ์„ฑ(NLG): ์ž์—ฐ์–ด ์ƒ์„ฑ ๊ฐ์ •๋ถ„์„ (sentiment analysis) ์š”์•ฝ(summarization) ๊ธฐ๊ณ„ ๋ฒˆ์—ญ(machine translation) ์งˆ๋ฌธ ์‘๋‹ต(question answering) +a (ํ’ˆ์‚ฌ ์˜ˆ์ธก ๋ถ„์•ผ, ์ฑ—๋ด‡ ์—ฐ๊ตฌ, ๋ฌธ์žฅ ๊ฐ„์˜ ๋…ผ๋ฆฌ์  ๊ด€๊ณ„์— ๋Œ€ํ•œ ๋ถ„๋ฅ˜ ๋ชจ๋ธ, ์ค‘์˜์  ํ‘œํ˜„ ๊ตฌ๋ณ„, ์ด๋ฏธ์ง€ ์† ์ƒํ™ฉ ์„ค๋ช… ๊ธ€ ๋งŒ๋“ค๊ธฐ ๋“ฑ๋“ฑ part5-2 ๋ฌธ์ž๋ฅผ ์ˆซ์ž๋กœ ํ‘œํ˜„ํ•˜๋Š” ๋ฐฉ๋ฒ• Tokenization: ๋ฌธ์žฅ์„ ์˜๋ฏธ ์žˆ๋Š” ๋ถ€๋ถ„์œผ๋กœ ๋‚˜๋ˆ„๋Š” ๊ณผ์ • ์—ฐ์†๋œ ๋ฌธ์ž์˜ ๋‚˜์—ด(๋ฌธ์žฅ)์„ ์ ์ ˆํ•˜๊ฒŒ ์˜๋ฏธ๋ฅผ ์ง€๋‹Œ ๋ถ€๋ถ„์˜ ๋‚˜์—ด๋กœ ๋ฐ”.. 2023. 7. 8.
728x90
๋ฐ˜์‘ํ˜•