1. 기계학습에서, `무엇을 얻어낼 것인가 (예측 및 추론)`의 구분
※ (수집해 놓은 데이터를 기초로, 어떤 판단 규칙을 만들어낼 것인가에 따른 구분)
ㅇ 회귀 (Regression)
- 입력 값을 바탕으로 연속적인 출력 값을 추정/예측
ㅇ 분류 (Classification)
- 입력 값을 바탕으로 특정 범주를 추정/예측
ㅇ 군집화 (Clustering)
- 입력 값들을 비슷한 특성별로 여러 그룹으로 분할하며 큰 단위로 만들어 감
. 유사도 산출 방법을 적절히 선택하는 것이 중요 함
ㅇ (기타)
- 유사성 매칭
- 연관성 분석
- 링크 예측 등
2. 기계학습에서, `학습법 (학습 시나리오)`의 구분
※ (학습을 위한 `정답 제공` 및 `피드백 제공` 유무에 따른 구분)
ㅇ 지도 학습 (Supervised Learning) : 미지의 값 예측
- 문제 및 정답의 쌍을 주고, 이를 통해 일반화 능력을 키우는 방식
. 입력 및 이에 대해 기대되는 출력을 학습 데이터로 제시하고, (입출력 데이터 쌍 필요)
. 기대되는 출력과 같아지도록 (예측토록),
. 시스템을 변화시키는 과정
- 문제 유형
. (연속적) : 회귀 문제
. (이산적) : 분류, 랭킹/추천 문제
- 학습 알고리즘 例
. 선형 회귀분석, 로지스틱 회귀분석, 결정 트리, 정규화, SVM 등
* 단, 과적합 방지 필요 (일반화 성능 고려)
. 학습 데이터에서 만 과적합(Overfitting) 됨을 방지하기 위해,
. 학습 데이터(학습용)와 테스트 데이터(검증용)를 구분하여, 추정과 검증을 구분토록 됨
ㅇ 비 지도 학습/자율 학습 (Unsupervised Learning) : 패턴 추출
- 정답이 없는 상태에서 모델을 구축하는 것
. 입력 데이터 집합에 내재하는 숨은 구조/성질을 찾는 과정 (패턴 추출)
- 문제 유형
. 군집화, 이상 검출, 토픽 모델링, 밀도 추정 (데이터 분포 추정), 차원 축소 등
- 학습 알고리즘 例
. 주성분 분석 등
ㅇ 강화 학습 (Reinforcement Learning) : 상호작용에 의한 시스템 구축
- 평가 후 보상을 통해 학습
. `환경과의 계속된 상호작용 (선택과 피드백의 반복)`을 하면서,
.. 자신의 상태를 파악하고,
.. 장기적인 이득(보상)을 최대화시킨다는 원칙을 갖고,
.. 다음 행동을 결정하는 (의사결정) 시스템을 구축
.. (키워드 : 환경/상호작용, 상태, 행동, 보상)
. 지도 학습과 달리,
.. 학습 알고리즘에 입력값과 최적의 출력값을 예시로 주지 않고,
.. 일련의 시행착오(trial and error)를 통해, 다음 행동을 정하는 알고리즘의 학습
. 결국, 컴퓨터가 알아서, 스스로의 행동 알고리즘을 만들어낼 수 있도록 함
- 문제 유형
. 행동 - 보상의 짝이 아니라, 상태에 대한 행동을 찾는 것
. 순차적 의사결정 문제 : 연이은 행동을 잘 선택해야 하는 문제
- 학습 알고리즘 例
. Q-learning, 정책 경사(Policy Gradient) 등
* 특히, 강화 학습과 딥러닝의 조합으로, 정교한 의사 결정 구조를 만듬
※ (어떻게 일반화하는가에 따른 구분)
ㅇ 사례 기반 학습 (instance-based)
- 사례를 기억하여 학습하고, 이로부터 유사도를 측정하여, 새로운 데이터에 일반화함
ㅇ 모델 기반 학습 (model-based)
- 가급적 좋은 모델을 만들어가며 예측이 잘들어맞도록 모델을 일반화함