๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
728x90
๋ฐ˜์‘ํ˜•

All Post105

[2์ฃผ์ฐจ] SRNet: Editing Text in the Wild Review 0. Abstract ๋ณธ ๋…ผ๋ฌธ์—์„œ๋Š” ์ž์—ฐ ์ด๋ฏธ์ง€์˜ ํ…์ŠคํŠธ ํŽธ์ง‘์— ๊ด€์‹ฌ์ด ์žˆ์œผ๋ฉฐ, ์›๋ณธ ์ด๋ฏธ์ง€์˜ ๋‹จ์–ด๋ฅผ ๋‹ค๋ฅธ ๋‹จ์–ด๋กœ ๊ต์ฒดํ•˜๊ฑฐ๋‚˜ ์ˆ˜์ •ํ•˜์—ฌ ์›๋ณธ ์ด๋ฏธ์ง€์™€ ์‹œ๊ฐ์ ์œผ๋กœ ๊ตฌ๋ณ„ํ•˜๊ธฐ ์–ด๋ ค์šด ํŽธ์ง‘๋œ ์ด๋ฏธ์ง€๋ฅผ ์œ ์ง€ํ•˜๋Š” ์ž‘์—…์„ ๋ชฉํ‘œ๋กœ ํ•จ ์„ธ ๊ฐ€์ง€ ๋ชจ๋“ˆ๋กœ ๊ตฌ์„ฑ๋œ end-to-end ํ•™์Šต ๊ฐ€๋Šฅํ•œ ์Šคํƒ€์ผ ๋ณด์กด ๋„คํŠธ์›Œํฌ (SRNet)๋ฅผ ์ œ์•ˆ ํ…์ŠคํŠธ ๋ณ€ํ™˜ ๋ชจ๋“ˆ: ์›๋ณธ ์ด๋ฏธ์ง€์˜ ํ…์ŠคํŠธ ๋‚ด์šฉ์„ ๋Œ€์ƒ ํ…์ŠคํŠธ๋กœ ๋ณ€๊ฒฝํ•˜๋ฉด์„œ ์›๋ž˜์˜ ํ…์ŠคํŠธ ์Šคํƒ€์ผ์„ ์œ ์ง€ํ•ฉ๋‹ˆ๋‹ค. ๋ฐฐ๊ฒฝ ์ธํŽ˜์ธํŒ… ๋ชจ๋“ˆ: ์›๋ณธ ํ…์ŠคํŠธ๋ฅผ ์ง€์šฐ๊ณ  ์ ์ ˆํ•œ ํ…์Šค์ฒ˜๋กœ ํ…์ŠคํŠธ ์˜์—ญ์„ ์ฑ„์›๋‹ˆ๋‹ค. ํ“จ์ „ ๋ชจ๋“ˆ: ๋‘ ๋ชจ๋“ˆ์˜ ์ •๋ณด๋ฅผ ๊ฒฐํ•ฉํ•˜์—ฌ ์ˆ˜์ •๋œ ํ…์ŠคํŠธ ์ด๋ฏธ์ง€๋ฅผ ์ƒ์„ฑ ๐Ÿ’ก 1. Text Editing(ํ…์ŠคํŠธ ํŽธ์ง‘) 2. Text Synthesis(ํ…์ŠคํŠธ ํ•ฉ์„ฑ) 3. Text Erasure(ํ…์ŠคํŠธ ์‚ญ์ œ).. 2023. 7. 17.
SRNet: Editing Text in the Wild Review 0. Abstract ๋ณธ ๋…ผ๋ฌธ์—์„œ๋Š” ์ž์—ฐ ์ด๋ฏธ์ง€์˜ ํ…์ŠคํŠธ ํŽธ์ง‘์— ๊ด€์‹ฌ์ด ์žˆ์œผ๋ฉฐ, ์›๋ณธ ์ด๋ฏธ์ง€์˜ ๋‹จ์–ด๋ฅผ ๋‹ค๋ฅธ ๋‹จ์–ด๋กœ ๊ต์ฒดํ•˜๊ฑฐ๋‚˜ ์ˆ˜์ •ํ•˜์—ฌ ์›๋ณธ ์ด๋ฏธ์ง€์™€ ์‹œ๊ฐ์ ์œผ๋กœ ๊ตฌ๋ณ„ํ•˜๊ธฐ ์–ด๋ ค์šด ํŽธ์ง‘๋œ ์ด๋ฏธ์ง€๋ฅผ ์œ ์ง€ํ•˜๋Š” ์ž‘์—…์„ ๋ชฉํ‘œ๋กœ ํ•จ ์„ธ ๊ฐ€์ง€ ๋ชจ๋“ˆ๋กœ ๊ตฌ์„ฑ๋œ end-to-end ํ•™์Šต ๊ฐ€๋Šฅํ•œ ์Šคํƒ€์ผ ๋ณด์กด ๋„คํŠธ์›Œํฌ (SRNet)๋ฅผ ์ œ์•ˆ ํ…์ŠคํŠธ ๋ณ€ํ™˜ ๋ชจ๋“ˆ: ์›๋ณธ ์ด๋ฏธ์ง€์˜ ํ…์ŠคํŠธ ๋‚ด์šฉ์„ ๋Œ€์ƒ ํ…์ŠคํŠธ๋กœ ๋ณ€๊ฒฝํ•˜๋ฉด์„œ ์›๋ž˜์˜ ํ…์ŠคํŠธ ์Šคํƒ€์ผ์„ ์œ ์ง€ํ•ฉ๋‹ˆ๋‹ค. ๋ฐฐ๊ฒฝ ์ธํŽ˜์ธํŒ… ๋ชจ๋“ˆ: ์›๋ณธ ํ…์ŠคํŠธ๋ฅผ ์ง€์šฐ๊ณ  ์ ์ ˆํ•œ ํ…์Šค์ฒ˜๋กœ ํ…์ŠคํŠธ ์˜์—ญ์„ ์ฑ„์›๋‹ˆ๋‹ค. ํ“จ์ „ ๋ชจ๋“ˆ: ๋‘ ๋ชจ๋“ˆ์˜ ์ •๋ณด๋ฅผ ๊ฒฐํ•ฉํ•˜์—ฌ ์ˆ˜์ •๋œ ํ…์ŠคํŠธ ์ด๋ฏธ์ง€๋ฅผ ์ƒ์„ฑ ๐Ÿ’ก 1. Text Editing(ํ…์ŠคํŠธ ํŽธ์ง‘) 2. Text Synthesis(ํ…์ŠคํŠธ ํ•ฉ์„ฑ) 3. Text Erasure(ํ…์ŠคํŠธ ์‚ญ์ œ).. 2023. 7. 17.
Module 8. ์‹œ๊ณ„์—ด ๋ฐ์ดํ„ฐ ๋ฐ AI ๋ชจ๋ธ ์„ฑ๋Šฅ ์ตœ์ ํ™” (๊ณ ๋ ค๋Œ€ํ•™๊ต ๊ฐ•ํ•„์„ฑ ๊ต์ˆ˜) Part 1. ์ˆœํ™˜์‹ ๊ฒฝ๋ง ๊ธฐ๋ฐ˜์˜ ์‹œ๊ณ„์—ด ๋ฐ์ดํ„ฐ ํšŒ๊ท€ - Non Sequential Data : ์ˆœ์„œ๊ฐ€ ์—†๋Š” ๋ฐ์ดํ„ฐ - Seuential Data : ์ˆœ์„œ๊ฐ€ ์žˆ๋Š” ๋ฐ์ดํ„ฐ 1. RNN - Why, Whh, Wxh => ํŒŒ๋ผ๋ฏธํ„ฐ๋กœ, ์ตœ์ ์œผ๋กœ ์ฐพ์•„๊ฐ€์•ผ ๋˜๋Š” ๊ฐ’๋“ค์„ ์˜๋ฏธํ•จ 2. RNN Backpropagation 3. LSTM - ๊ธฐ์กด RNN์˜ ๋ฌธ์ œ์ : ์žฅ๊ธฐ ์˜์กด์„ฑ ๋ฌธ์ œ(the problem of Long-Term Dependencies) - > ์žฅ๊ธฐ ์˜์กด์„ฑ ๋ฐ gradient vanishing ๋ฌธ์ œ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•ด ๋‚˜์˜จ ๋ชจ๋ธ - Step1: ์ง€๊ธˆ๊นŒ์ง€์˜ cell state์— ์ €์žฅ๋œ ์ •๋ณด ์ค‘์—์„œ ์–ผ๋งˆ๋งŒํผ์„ ๋ง๊ฐํ•  ๊ฒƒ์ธ์ง€๋ฅผ ๊ฒฐ์ • - Step2: ์ƒˆ๋กœ์šด ์ •๋ณด๋ฅผ ์–ผ๋งˆ๋งŒํผ cell state์— ์ €์žฅํ•  ๊ฒƒ์ธ์ง€๋ฅผ ๊ฒฐ์ • - St.. 2023. 7. 17.
[2์ฃผ์ฐจ] 3D Generation Model Github ํƒ์ƒ‰ ๐Ÿ’ก 2์ฃผ์ฐจ ๊ณผ์ œ: 3D ์ƒ์„ฑํ•˜๋Š” ๋ชจ๋ธ ๊นƒํ—™ → ๋งŒ์•ฝ ํ•™์Šต์ด ํ•„์š”ํ•œ ๋ชจ๋ธ์ด๋ฉด ์–ด๋–ค ๋ฐ์ดํ„ฐ๊ณ , ๋ฐ์ดํ„ฐ AIํ—ˆ๋ธŒ๊ฐ™์€ ๋ฐ ์žˆ๋Š”์ง€ 1. CIPS-3D (21๋…„๋„ 10์›”) ์ด๋ฏธ์ง€๋ฅผ 3Dํ™” ์‹œํ‚ค๋ ค๊ณ  ํ•˜๋Š”, ์ €๋ฒˆ์— ์˜๊ฒฌ ๋‚˜์™”๋˜ ์˜ํ™” ํฌ์Šคํ„ฐ ํ˜น์€, ํ•ด๋ฆฌํฌํ„ฐ ์‹ ๋ฌธ?, ๊ทธ๋ฆผ ๋ช…ํ™” ๋“ฑ์ด ๊ฐ€๋Šฅํ•  ์ˆ˜๋„ ์žˆ์ง€ ์•Š์„๊นŒ ๐Ÿ’ป https://github.com/PeterouZh/CIPS-3D ๐Ÿ“š https://arxiv.org/abs/2110.09788 ๐Ÿงช https://huggingface.co/spaces/hysts/Shap-E ํŠน์ง• : NeRF ๊ธฐ๋ฐ˜ : ํ•œ๊ณ„์ ์€ NeRF ๋งˆ๋ƒฅ ์•ž์—์„œ๋งŒ ๋น™๋น™๋Œ€๋Š” ๊ฒƒ๋งŒ ๊ฐ€๋Šฅ → ์šฐ๋ฆฌ๊ฐ€ ์–ด๋–ค ์ฃผ์ œ๋กœ ํ• ๊ฑฐ๋ƒ์— ๋”ฐ๋ผ์„œ choice ๋  ์ˆ˜๋„ ์•ˆ๋  ์ˆ˜๋„ : ๋ฐ์ดํ„ฐ์…‹: ์ด๋ฏธ์ง€…? 2. FastGANFit (21๋…„.. 2023. 7. 17.
Taskonomy: Disentangling Task Transfer Learning ๐Ÿ’ก ๊ฐ€ ๋ญ๋ƒ? Taskonomy๋Š” ์ปดํ“จํ„ฐ ๋น„์ „ ๋ถ„์•ผ์—์„œ ๋‹ค์–‘ํ•œ ์ž‘์—… ๊ฐ„์˜ ์ƒํ˜ธ ์˜์กด์„ฑ์„ ํƒ๊ตฌํ•˜๊ณ , ์ด๋ฅผ ํ†ตํ•ด ๋ฒ”์šฉ ๋น„์ „ ์‹œ์Šคํ…œ์„ ๊ตฌ์ถ•ํ•˜๋Š” ์—ฐ๊ตฌ. Taskonomy๋Š” ๋‹ค์–‘ํ•œ ์ž‘์—…๋“ค์„ ์ˆ˜ํ–‰ํ•˜๊ธฐ ์œ„ํ•ด ํ•„์š”ํ•œ ์‹œ๊ฐ์  ํŠน์ง•๋“ค์ด ์„œ๋กœ ๊ณต์œ ๋  ์ˆ˜ ์žˆ๋Š”์ง€๋ฅผ ์กฐ์‚ฌํ•˜๊ณ , ์ด๋ฅผ ํ†ตํ•ด ๋ชจ๋ธ์˜ ํ•™์Šต ํšจ์œจ์„ฑ๊ณผ ์„ฑ๋Šฅ์„ ํ–ฅ์ƒ์‹œํ‚ฌ ์ˆ˜ ์žˆ๋Š” ์ „์ด ํ•™์Šต ๋ฐฉ๋ฒ•์„ ํƒ๊ตฌ. Taskonomy์˜ ๋ชฉํ‘œ๋Š” ๋‹ค์–‘ํ•œ ์ž‘์—…๋“ค ๊ฐ„์— ๊ณต์œ  ๊ฐ€๋Šฅํ•œ ์‹œ๊ฐ์  ํŠน์ง•์„ ํƒ์ƒ‰ํ•˜์—ฌ, ์ž‘์—… ๊ฐ„์˜ ํ•™์Šต๊ณผ ์ผ๋ฐ˜ํ™”๋ฅผ ๊ฐœ์„ ํ•˜๊ณ  ์ž‘์—… ์ „ํ™˜์— ๋”ฐ๋ฅธ ๋น„์šฉ๊ณผ ๋…ธ๋ ฅ์„ ์ตœ์†Œํ™”ํ•˜๋Š” ๊ฒƒ. ๐Ÿ€ ๋…ผ๋ฌธ ์š”์•ฝ: ์—ฌ๋Ÿฌ ์ž‘์—…๋“ค ๊ฐ„์— ๊ณต์œ  ๊ฐ€๋Šฅํ•œ ํŠน์ง•๋“ค์„ ๋ฐœ๊ฒฌํ•˜๊ณ  ์ด๋ฅผ ํ™œ์šฉํ•˜์—ฌ ํ•œ ๋ชจ๋ธ์ด ๋‹ค์–‘ํ•œ ์ž‘์—…(๊ฐ์ฒด ๊ฒ€์ถœ, ์ด๋ฏธ์ง€ ๋ถ„๋ฅ˜, ์„ธ๊ทธ๋ฉ˜ํ…Œ์ด์…˜)์„ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•จ. ์ด๋ฅผ ์œ„ํ•ด ๋‹ค์–‘ํ•œ ์ž‘์—…๋“ค์„ ์ˆ˜ํ–‰ํ•˜๋ฉฐ ์ˆ˜์ง‘.. 2023. 7. 16.
Module 7. ๋”ฅ๋Ÿฌ๋‹ (Deep Learning) (KAIST ์ฃผ์žฌ๊ฑธ ๊ต์ˆ˜) ๋‚ ์งœ: 2023๋…„ 7์›” 15์ผ Part 1. Introduction to Deep Neural Networks 1. Deep Learning : ์‹ ๊ฒฝ์„ธํฌ๋“ค์ด ๋ง์„ ์ด๋ฃจ์–ด์„œ ์ •๋ณด๋ฅผ ๊ตํ™˜ํ•˜๊ณ  ์ฒ˜๋ฆฌํ•˜๋Š” ๊ณผ์ •์„ ๋ณธ๋”ฐ์„œ ๋งŒ๋“  ๋ฐฉ์‹์„ ์˜๋ฏธํ•จ 2. ์‹ฌ์ธต ์‹ ๊ฒฝ๋ง์˜ ๊ธฐ๋ณธ ๋™์ž‘ ๊ณผ์ • - Big Data์˜ ํ•„์š” - GPU Acceleration - Algorithm Improvements 3. Perceptron - ํผ์…‰ํŠธ๋ก ์€ ์ƒ๋ฌผํ•™์ ์ธ ์‹ ๊ฒฝ๊ณ„(Neual Network)์˜ ๊ธฐ๋ณธ ๋‹จ์œ„์ธ ์‹ ๊ฒฝ์„ธํฌ(=๋‰ด๋Ÿฐ)์˜ ๋™์ž‘ ๊ณผ์ •์„ ํ†ต๊ณ„ํ•™์ ์œผ๋กœ ๋ชจ๋ธ๋งํ•œ ์•Œ๊ณ ๋ฆฌ์ฆ˜ 4. Forward Propagation - ํ–‰๋ ฌ ๊ณฑ์„ ํ†ตํ•ด sigmoid function๊ณผ ๊ฐ™์€ actiavtion function์„ ์ง€๋‚˜๋ฉด ๊ฒฐ๊ณผ ๊ฐ’์ด ๋‚˜์˜ด 5. MSE - ์—๋Ÿฌ.. 2023. 7. 15.
728x90
๋ฐ˜์‘ํ˜•