728x90 반응형 Data Augmentaion1 mixup: Beyond Emprical Risk Minimization Mixup이 뭐야? : Beyond Emprical Risk Minimization - 경험적 위험 최소화를 넘어? 이게 도대체 뭔말인가 : mixup ⇒ data augmentaion 기법 :두 데이터를 선형적으로 결합해서 새로운 샘플을 생성 : 정말 쉽게 말하자면, 우리가 일반적으로 훈련, 예측과 같은 방법을 쓰면 과적합이 발생하기 마련임. : 왜냐? 훈련데이터만 보고 학습을 시키기 때문에, 당연히 학습한 모델은 학습 데이터셋에 편향됨. : 즉, 과적합이 난다는 말. 결국, 다른 조금만 다른 분포를 가지는 데이터셋에 적용만 해(Out of Distribution) 모델이 취약할 수 밖에 없음 : 따라서, 훈련 데이터셋만 학습 시키는게 아니라, 훈련 데이터셋의 근방 분포도 함께 학습을 시켜서 보다 더 .. 2023. 8. 3. 이전 1 다음 728x90 반응형