728x90 ๋ฐ์ํ Deep Learning78 ELMO 1. Intro ๊ฐ์ read๋ผ๊ณ ํด๋ ํ์ฌํ๊ณผ ๊ณผ๊ฑฐํ์ด ์์ -> ์์์๋ง ์์ธก์ ํด์ ์ถ๋ ฅํ๋ฉด ์ ํํ ๋ชจ๋ฅด๊ธฐ ๋๋ฌธ์, ๋ค์์๋ถํฐ ์ค๋ ์ ๋ค์ ๊ฐ์ง๊ณ ์์ธก์ ํด์ read๊ฐ ๊ณผ๊ฑฐํ์ผ๋ก ์ฐ์ธ๋ค! ๋ผ๊ณ ์๋ ค์ฃผ๋๊ฒ ์๋ชจ์ ์ญํ 2. Overall architecture read์ ํด๋นํ๋ ์น๊ตฌ๋ฅผ ๋ฝ๋๋ค forward ๋ถ๋ถ๊ณผ backward ๋ถ๋ถ์ ํจ๊ป ํ์ต์ํด ์ด๋, word embedding ๋ถ๋ถ, LSTM1์ธต, LSTM2์ธต ๋ฑ ๊ฐ๊ฐ์embedding๊ณผ LSTM๋ผ๋ฆฌ concat์ ์ํด ์ดํ, ์๋ง๊ฒ ๊ฐ์ค์น๋ฅผ ๊ณฑํด์ค ( ์ด๋ ์๋์ ์์์๋ก ๋ฌธ๋ฒ์ ์ธ ์ธก๋ฉด์์์ ๋ฒกํฐ์ด๊ณ , ์๋ก ๊ฐ์๋ก ๋ฌธ๋งฅ์ ๋ง๋ ๋ฒกํฐ๋ผ๊ณ ํจ) ์ดํ, ๊ฐ์คํฉ์ ํ๋ฉด ํ๋์ ๋ฒกํฐ๊ฐ ๋ง๋ค์ด์ง → read์ ๋ํ embedding ์ธต์ elmo ๊ฐ.. 2023. 7. 6. SegNet Intro ์์จ์ฃผํ - road scene segmentation task๋ฅผ ํ๊ณ ์ ํ์์ ๋๋ก์ ๋ณด๋๋ฅผ ๊ตฌ๋ถํ๊ฑฐ๋, ์๋์ฐจ์ ๋ณดํ์ ๋ฑ max pooling, subsampling ์ฐ์ฐ์ ์ํํ๋ค๋ณด๋ฉด ์ถ์์ ์ธ ํผ์ฒ๋งต๋ค์ด ๋ง๋ค์ด์ง ( ์ฆ, ์ด๋ฏธ์ง ํฌ๊ธฐ๊ฐ ์ ์ ์ค์ด๋ค์๋ก ์๋ณธ ์ ๋ณด๊ฐ ์์ค๋จ → ์ถ์์ ์ธ ๊ฒฐ๊ณผ๊ฐ์ผ๋ก ๋ณํจ) ๊ทธ๋ ๊ฒ ๋๋ฉด ํผ์ฒ๋งต์ผ๋ก ํฝ์ผ ๋จ์๋ก ์ ๊ตํ๊ฒ segmentation์ ๋ชปํจ ๋ํ, ์์จ์ฃผํ์ ์ํด์๋ ์ค์๊ฐ์ผ๋ก ๋น ๋ฅด๊ฒ segmentation์ ํด์ผํ์ง๋ง, ํ๋ผ๋ฏธํฐ ์๊ฐ ๋ง์ผ๋ฉด ๋น ๋ฅด๊ฒ ํ์ง ๋ชปํจ. ๊ทธ๋์ ์ด์ ๋ํ ๋ฌธ์ ์ ์ ํด๊ฒฐํ๊ธฐ ์ํด ๋์จ ๊ฒ์ด segnet์ Network Architecture SegNet์ encoder-decoder๋ ๊ฐ๊ฐ 13๊ฐ์ convolution layer.. 2023. 7. 6. CycleGAN 0. Abstract Figure 1: Given any two unordered image collections X and Y , our algorithm learns to automatically “translate” an image from one into the other and vice versa: (left) Monet paintings and landscape photos from Flickr; (center) zebras and horses from ImageNet; (right) summer and winter Yosemite photos from Flickr. Example application (bottom): using a collection of paintings of famous.. 2023. 7. 5. XLNet: Generalized Autoregressive Pretraining for Language Understanding ๐ก [๋ ผ๋ฌธ๋ฆฌ๋ทฐ] XLNet: Generalized Autoregressive Pretraining for Language Understanding XLNet: Generalized Autoregressive Pretraining for Language Understanding Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le https://arxiv.org/abs/1906.08237 1. Introduction Unsupervised Representation Learning์ Large-scale์ corpora๋ฅผ ํตํด Pre… https://jeonsworld.github.io/NLP/xlnet.. 2023. 7. 5. Inception-v4, Inception-ResNetand the Impact of Residual Connections on Learning ๐ก Inception-v1 Inception-v2 inception-v3 Inception-v2 ๊ตฌ์กฐ์์ ์์์ ์ค๋ช ํ ๊ธฐ๋ฒ๋ค์ ํ๋ํ๋ ์ถ๊ฐํด ์ฑ๋ฅ์ ์ธก์ ํ๊ณ , ๋ชจ๋ ๊ธฐ๋ฒ๋ค์ ์ ์ฉํ์ฌ ์ต๊ณ ์ฑ๋ฅ์ ๋ํ๋ด๋ ๋ชจ๋ธ์ด Inception-v3 Inception-v3์ Inception-v2์์ BN-auxiliary + RMSProp + Label Smoothing + Factorized 7x7 ์ ๋ค ์ ์ฉํ ๋ชจ๋ธ [๋ ผ๋ฌธ ์ฝ๊ธฐ] Inception-v3(2015) ๋ฆฌ๋ทฐ, Rethinking the Inception Architecture for Computer Vision ์ด๋ฒ์ ์ฝ์ด๋ณผ ๋ ผ๋ฌธ์ Rethinking the Inception Architecture for Computer Vision ์ ๋๋ค. ๋ณธ ๋ ผ.. 2023. 7. 5. Seq2Seq 1. Intro 1) DNNs(Deep Neural Networks) ์์ฑ ์ธ์, ์ฌ๋ฌผ ์ธ์๊ณผ ๊ฐ์ ๋ฌธ์ ์ ์์ฃผ ์ข์ ํ์ง๋ง ์ด ์น๊ตฌ๋ input, output์ด ๊ณ ์ ๋ ์ฐจ์์ ๋ฒกํฐ๋ก ์ธ์ฝ๋ฉ ๋ ๋ฌธ์ ์๋ง ์ ์ฉํ ์ ์๋ค๋ ๋จ์ ๋ฐ์ 2) sequential problems ์์ฑ์ธ์์ด๋ ๊ธฐ๊ณ ๋ฒ์ญ ๊ฐ์ ๋ฌธ์ ๋ค์ ๊ธธ์ด๋ฅผ ์ ์ ์๋ ์ํ์ค๋ก ํํ๋จ ๋ํ ์๋ก) question-answering ๋ฌธ์ ๋ ์ง๋ฌธ์ ๋ํ ์ ๋ต ์ํ์ค๋ก ๋งค์นญํด์ค์ผ ํจ ๋ฐ๋ผ์ DNN์ ์ ์ถ๋ ฅ ์ฐจ์์ ์์์ผ ํ๊ณ , ๊ณ ์ ๋์ด์ผ ํ๊ธฐ ๋๋ฌธ์, ๊ธฐ์กด์ ๋ฐฉ๋ฒ์ ํด๊ฒฐํ๊ธฐ์ ์ด๋ ค์์ด ๋ฐ์ ex) ‘๋๋ ๋๋ฅผ ์ ๋ง ์ฌ๋ํด’ ⇒ ‘ I love you so much’ ex) ๋ฌธ์ฅ ๋จ์ด ๊ฐ์์ ๋ง์ถฐ์ I love you very ๋ผ๋ ์ด์ํ ๋ฌธ์ฅ ์ถ๋ ฅ .. 2023. 7. 5. ์ด์ 1 ยทยทยท 9 10 11 12 13 ๋ค์ 728x90 ๋ฐ์ํ