본문 바로가기
728x90
반응형
[2주차] SRNet: Editing Text in the Wild Review 0. Abstract 본 논문에서는 자연 이미지의 텍스트 편집에 관심이 있으며, 원본 이미지의 단어를 다른 단어로 교체하거나 수정하여 원본 이미지와 시각적으로 구별하기 어려운 편집된 이미지를 유지하는 작업을 목표로 함 세 가지 모듈로 구성된 end-to-end 학습 가능한 스타일 보존 네트워크 (SRNet)를 제안 텍스트 변환 모듈: 원본 이미지의 텍스트 내용을 대상 텍스트로 변경하면서 원래의 텍스트 스타일을 유지합니다. 배경 인페인팅 모듈: 원본 텍스트를 지우고 적절한 텍스처로 텍스트 영역을 채웁니다. 퓨전 모듈: 두 모듈의 정보를 결합하여 수정된 텍스트 이미지를 생성 💡 1. Text Editing(텍스트 편집) 2. Text Synthesis(텍스트 합성) 3. Text Erasure(텍스트 삭제).. 2023. 7. 17.
SRNet: Editing Text in the Wild Review 0. Abstract 본 논문에서는 자연 이미지의 텍스트 편집에 관심이 있으며, 원본 이미지의 단어를 다른 단어로 교체하거나 수정하여 원본 이미지와 시각적으로 구별하기 어려운 편집된 이미지를 유지하는 작업을 목표로 함 세 가지 모듈로 구성된 end-to-end 학습 가능한 스타일 보존 네트워크 (SRNet)를 제안 텍스트 변환 모듈: 원본 이미지의 텍스트 내용을 대상 텍스트로 변경하면서 원래의 텍스트 스타일을 유지합니다. 배경 인페인팅 모듈: 원본 텍스트를 지우고 적절한 텍스처로 텍스트 영역을 채웁니다. 퓨전 모듈: 두 모듈의 정보를 결합하여 수정된 텍스트 이미지를 생성 💡 1. Text Editing(텍스트 편집) 2. Text Synthesis(텍스트 합성) 3. Text Erasure(텍스트 삭제).. 2023. 7. 17.
Module 8. 시계열 데이터 및 AI 모델 성능 최적화 (고려대학교 강필성 교수) Part 1. 순환신경망 기반의 시계열 데이터 회귀 - Non Sequential Data : 순서가 없는 데이터 - Seuential Data : 순서가 있는 데이터 1. RNN - Why, Whh, Wxh => 파라미터로, 최적으로 찾아가야 되는 값들을 의미함 2. RNN Backpropagation 3. LSTM - 기존 RNN의 문제점: 장기 의존성 문제(the problem of Long-Term Dependencies) - > 장기 의존성 및 gradient vanishing 문제 해결하기 위해 나온 모델 - Step1: 지금까지의 cell state에 저장된 정보 중에서 얼마만큼을 망각할 것인지를 결정 - Step2: 새로운 정보를 얼마만큼 cell state에 저장할 것인지를 결정 - St.. 2023. 7. 17.
[2주차] 3D Generation Model Github 탐색 💡 2주차 과제: 3D 생성하는 모델 깃헙 → 만약 학습이 필요한 모델이면 어떤 데이터고, 데이터 AI허브같은 데 있는지 1. CIPS-3D (21년도 10월) 이미지를 3D화 시키려고 하는, 저번에 의견 나왔던 영화 포스터 혹은, 해리포터 신문?, 그림 명화 등이 가능할 수도 있지 않을까 💻 https://github.com/PeterouZh/CIPS-3D 📚 https://arxiv.org/abs/2110.09788 🧪 https://huggingface.co/spaces/hysts/Shap-E 특징 : NeRF 기반 : 한계점은 NeRF 마냥 앞에서만 빙빙대는 것만 가능 → 우리가 어떤 주제로 할거냐에 따라서 choice 될 수도 안될 수도 : 데이터셋: 이미지…? 2. FastGANFit (21년.. 2023. 7. 17.
Taskonomy: Disentangling Task Transfer Learning 💡 가 뭐냐? Taskonomy는 컴퓨터 비전 분야에서 다양한 작업 간의 상호 의존성을 탐구하고, 이를 통해 범용 비전 시스템을 구축하는 연구. Taskonomy는 다양한 작업들을 수행하기 위해 필요한 시각적 특징들이 서로 공유될 수 있는지를 조사하고, 이를 통해 모델의 학습 효율성과 성능을 향상시킬 수 있는 전이 학습 방법을 탐구. Taskonomy의 목표는 다양한 작업들 간에 공유 가능한 시각적 특징을 탐색하여, 작업 간의 학습과 일반화를 개선하고 작업 전환에 따른 비용과 노력을 최소화하는 것. 🍀 논문 요약: 여러 작업들 간에 공유 가능한 특징들을 발견하고 이를 활용하여 한 모델이 다양한 작업(객체 검출, 이미지 분류, 세그멘테이션)을 수행할 수 있도록 함. 이를 위해 다양한 작업들을 수행하며 수집.. 2023. 7. 16.
Module 7. 딥러닝 (Deep Learning) (KAIST 주재걸 교수) 날짜: 2023년 7월 15일 Part 1. Introduction to Deep Neural Networks 1. Deep Learning : 신경세포들이 망을 이루어서 정보를 교환하고 처리하는 과정을 본따서 만든 방식을 의미함 2. 심층 신경망의 기본 동작 과정 - Big Data의 필요 - GPU Acceleration - Algorithm Improvements 3. Perceptron - 퍼셉트론은 생물학적인 신경계(Neual Network)의 기본 단위인 신경세포(=뉴런)의 동작 과정을 통계학적으로 모델링한 알고리즘 4. Forward Propagation - 행렬 곱을 통해 sigmoid function과 같은 actiavtion function을 지나면 결과 값이 나옴 5. MSE - 에러.. 2023. 7. 15.
728x90
반응형