머신러닝 Flashcards

1
Q

머신러닝

A

[정의] 환경과의 상호작용에 기반한 경험적인 데이터로부터 스스로 성능을 향상시키는 시스템을 연구하는 과학과 기술
[원리]
- 오캄의 원리 : 단순한 모델을 복잡한 모델 보다 우선
- 양보의 원리 : 정확도와 성능의 관계
- 균등의 원리 : 불필요한 가정을 최소화
[분류] 비지도 학습, 지도 학습, 준지도학습, 강화 학습, 진화 학습

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

지도학습

A

[지도학습] 시스템이 데이터를 분류 가능하도록 Labeled Data 기반 입출력 값을 비교 학습하는 기계학습 기법
[학습모델]
- 인공신경망 측면 : CNN(이미지 기반 특징 추출, 차원 축소를 통한 인식, 예측 - Convolution/Pooling Layer, Feature Map, Sub Sampling),RNN(현재와 과거 데이터 고려 순차 데이터 처리 순환 신경망– Input / Output / Hidden Layer, Time Unfolding, BPTT, LSTM)
- 벡터기반 측면 : SVM(두 클래스 분류 위해 Margin 최대 결정직선 탐색-Support Vector, Margin, 초평면, 결정 직선, 커널 함수), 회귀분석(변수 집합에서 독립/종속변수 간 상관관계를 함수로 표현 – 독립/종속 변수, 회귀 계수, 최소 자승법, 회귀 방정식)
[비지도학습] 시스템이 데이터를 군집화 가능하도록 Raw Data 기반 입력값의 공통 특성을 학습하는 기계학습 기법
[학습모델]
- 데이터 관계 측면 : K-Means(임의의 중심점 기준 최소 거리 기반 군집화– Code-Vector, 유클리드 거리 계산, 노이즈에 민감), DBSCAN(반경 내 데이터 벡터 밀도 기반 군집화 – ε, minPts, Core Point, 노이즈에 강함)
- 특징추출 측면 : 민 시프트(임의 영상을 몇 개 영역으로 분할, 군집화 – 컴퓨터 비전, 머신 비전, 영상 분할), 주성분 분석(사물의 주요 특징분석 및 추출– 차원 축소, 축 상의 투영으로 표시)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

비지도학습

A

[정의] 시스템이 데이터를 군집화 가능하도록 Raw Data 기반 입력값의 공통 특성을 학습하는 기계학습 기법
[입력정보] Raw Data
[알고리즘]
1. 군집화 : 계층적 군집분석 (hierarchical), k-means, k-medoids, DBSCAN, SOM
2. 차원축소 : 주성분분석(PCA), 독립성분분석(ICA)
3. 연관규칙 : Apriori

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

강화학습

A

[정의] 특정상태(S)에서 행동( A)에 따른 보상(S)를 학습하여 최적정책을 탐색하는 머신러닝 학습 모델
[특징] 비지도학습, 반복적 학습
* 미래에 얻을 수 있는 보상의 기대치를 극대화 하는 정책을 결정하는 학습방법
[사례] 로봇제어, 게임, 자율주행, 금융서비스
[구성요소] 상태, 행동, 보상, Discount Factor(보상 증가시 발생 오류 방지 요소), Transition Probability(특정 행동시 다음 행동 예측 확률)
[알고리즘]
1. 마르코프 : MDP, HMM, DQN
- 반복값 (값 함수가 수렴할때까지 반복), 반복 정책(임의 정책이 수렴할때까지 개선), Q-Learning(미래 가치(Q) 기반 활동 수행), SARSA(상태-활동-보상-상태-활동 반복)
2. 진화형
- 학습 분류자 (규칙과 정책 분류 및 보상), XCS(Learning Classifier System), 통계적 급강하법(통계기반 최적화 수행 방법), 유전자 알고리즘(환경에 최적화된 개체 선택)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

역 강화학습

A

[정의] 에이전트가 최선의 행동을 선택했다는 가정하에 이 행동에 대한 보상함수를 추정하는 학습 방식
[배경]
- 실세계에서 특정 모델에 대한 보상 함수를 구하는 것은 매우 복잡한 문제
- 보상 함수는 단일 속성이 아닌 다속성으로 구성되는 경우가 대부분
- 보상 함수를 정의할 때 미지의 보상 속성까지 추가적 고려 필요
* 최선의 행동 이력(최적 정책)을 입력으로 보상 함수를 찾음
[방식] 행동복제(전문가 시연→데이터추출→데이터정제→지도학습→정책설정), 견습학습(전문가의 시연으로부터 보상 함수를 만들고 계산된 보상 함수를 통해 최적의 정책을 학습하는 알고리즘)
[알고리즘]
- ALIRL(적은 횟수로도 학습이 가능), MaxEnt IRL, GCL(샘플기반 근사화), GAIL(GCL구조에 GAN 도입), VAIL(판별기에 정보 병목)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

머신러닝 모델링

A

[정의] 훈련 데이터를 기반으로 기계학습 모델을 만들고 이를 검증 데이터로 검증하는 작업을 반복하여 신뢰할 수있는 모델을 도출하는 과정
[프로세스] 데이터 수집 → 점검 및 탐색 → 전처리/정제 → 모델링/훈련 → 평가 → 도출
[기술요소]
- 데이터 : Training Data, Test Data
- 모델 : 예측 및 분류(KNN, SVM, 의사결정트리), 군집(K-Means, DBSCAN)
- 평가 : 모델 성능 검증, 모델 성능 평가

How well did you know this?
1
Not at all
2
3
4
5
Perfectly