본문 바로가기
728x90
반응형

대외활동9

TOBIG's [심층학습] 제5장 기계 학습의 기초 5.1 학습 알고리즘 5.1.1 과제 T - 기계학습의 과제는 일반적으로 기계 학습 시스템이 견본을 처리하는 방식을 서술하는 현태로 정의된다. 여기서 견본이란 기계 학습 시스템의 처리 대상인 어떤 물체나 사건으로부터 정량적으로 측정한 특징(feature들의 집합)을 의미한다. 예를 들어 견본 디지털 이미지의 특징들은 이미지를 구성하는 픽셀값이다. 다음은 가장 흔한 기계 학습 과제 몇 가지이다. 1. 분류 2. 결측 입력이 있는 자료의 분류 : 입력 벡터의 모든 측도가 항상 보장이 없을 때는 분류가 더 어려워진다. 따라서, 모든 관련 변수에 관한 확률분포를 학습하고, 결측값들을 주변화해서 분류 문제를 풀기도 한다. 3. 회귀 4. 전사(옮겨쓰기) : 해당 종류의 과제에서 기계 학습 시스템은 비교적 구조적이.. 2024. 2. 2.
[TOBIG's] 심층학습 - 제4장 수치계산 일반적으로 기계 학습 알고리즘에는 대량의 수치 계산이 필요하다. 어떤 반복적인 과정을 통해 정답의 추정값을 계속 갱신함으로써 문제를 풀지만, 유한한 메모리를 가진 디지털 컴퓨터는 실수를 정확하게 표현할 수 없기에 약간의 한계가 존재한다. 4.1 넘침과 아래넘침 - 아래넘침(underflow) : 0에 가까운 수가 반올림 때문데 정확히 0이 되는 것을 말한다. - 넘침(overflow) : 크기가 큰 수가 무한대 혹은 마이너스 무한대로 근사되는 것을 말한다. -> 이러한 문제를 해결하는데 쓰이는 함수가 바로 소프트맥스 함수이다. 멀티누이 분포를 따르는 확률들을 예측하는데 흔히 사용된다. 4.2 나쁜 조건화 - 조건화 : 입력의 작은 변화에 대해 함수가 얼마나 급하게 변하는지를 뜻하는 용어이다. 과학 계산에.. 2024. 2. 2.
LG Aimers 3기 수료 2023. 12. 31.
Module 7. 딥러닝 (Deep Learning) (KAIST 주재걸 교수) 날짜: 2023년 7월 15일 Part 1. Introduction to Deep Neural Networks 1. Deep Learning : 신경세포들이 망을 이루어서 정보를 교환하고 처리하는 과정을 본따서 만든 방식을 의미함 2. 심층 신경망의 기본 동작 과정 - Big Data의 필요 - GPU Acceleration - Algorithm Improvements 3. Perceptron - 퍼셉트론은 생물학적인 신경계(Neual Network)의 기본 단위인 신경세포(=뉴런)의 동작 과정을 통계학적으로 모델링한 알고리즘 4. Forward Propagation - 행렬 곱을 통해 sigmoid function과 같은 actiavtion function을 지나면 결과 값이 나옴 5. MSE - 에러.. 2023. 7. 15.
Module 6. 강화학습 (Reinforcement Learning) (고려대학교 이병준 교수) 날짜: 2023년 7월 13일 Part 1. MDP and Planning : Markov Decision Process의 약자 Sequential Decision Making under Uncertainty를 위한 기법 강화학습(Reinforcement Learning, RL)을 위한 기본 기법 알고리즘(transition probability, reward function)을 알고 있을 때는 MDP(stocasitc control 기법)을 이용 알고리즘을 모르고 simulation 결과(reward 값)를 활용할 때는 강화학습을 이용 https://velog.io/@recoder/MDP%EC%9D%98%EA%B0%9C%EB%85%90 S : set of states(state space) state .. 2023. 7. 15.
Module 5. 지도학습 (분류/회귀) (이화여자대학교 강제원 교수) 날짜: 2023년 7월 8일 Part 1. SL Foundation 1.Supervised Learning - label값이 있는 것을 말함 - training과 test 단계가 존재함 - feature의 경우, domain 지식이 어느 정도 필요함 - 딥러닝의 경우, feature를 스스로 학습하기도 함 - SL의 경우, training error, val error, test error을 통해 generalization error을 최소화하도록 하는 노력을 하게 됨 - loss function=cost function 2. Bias-variance trade-off - bias와 variance의 trade off를 잘 조정해서 최적의 generalization error를 만드는 것이 중요함 - 딥.. 2023. 7. 8.
728x90
반응형