Log/Book Log
[혼공머신] Chapter 04 다양한 분류 알고리즘
TypeMIN
2022. 3. 5. 13:46
728x90
04-1 로지스틱 회귀
Multi-class Classification (다중 분류)
target data에 2개 이상의 class가 포함된 문제
Logistic Regression (로지스틱 회귀)
이름은 regression이지만 classification model
linear regression과 동일하게 linear equation을 학습
- 이진 분류
- sigmoid function 사용
- $\phi = \frac{1}{1+e^{-z}}$
- z값이 음의 무한대로 갈수록 0에 수렴
- z값이 양의 무한대로 갈수록 1에 수렴
- sigmoid function 사용
- 다중 분류
- softmax function 사용
- $s_n = \frac{e^{z_n}}{\sum e^{z_i}}$
- 여러 개의 선형 방정식의 출력값을 0~1 사이로 압축하고 전체 합을 1로 만듦
- 지수함수를 사용하기 때문에 '정규화된 지수 함수'라고도 부름
- softmax function 사용
04-2 확률적 경사 하강법
점진적 학습
앞서 훈련한 모델을 버리지 않고 새로운 data에 대해서만 조금씩 더 훈련하는 방식
Stochastic Gradient Descent (확률적 경사 하강법)
- 훈련 방법
- train set에서 random하게 하나의 sample을 선택하여 가파른 경사를 조금 내려감
- Minibatch Gradient Descent (미니배치 경사 하강법)random한 몇 개의 샘플을 선택하여 경사를 조금 내려감
- Batch Gradient Descent (배치 경사 하강법)경사를 조금 내려가기 위해 전체 샘플을 한 번에 사용
- train set에서 또 다른 sample을 하나 선택하여 가파른 경사를 조금 내려감
- 같은 방식으로 전체 sample을 모두 사용할 때 까지 반복
- train set을 한 번 모두 사용하는 과정 = epoch(에포크)
- 일반적으로 수십, 수백 번 이상의 epoch를 수행
- train set에서 random하게 하나의 sample을 선택하여 가파른 경사를 조금 내려감
Loss Function (손실 함수)
어떤 문제에서 머신러닝 알고리즘이 얼마나 엉터리인지를 측정하는 기준
- 종류
- Logistic Loss Function (로지스틱 손실 함수)
- binary classification에서 사용
- (= Binary Cross-entropy Loss Function)
- Cross-entropy Loss Function
- multi-class classification에서 사용
- Mean Squared Error (평균 제곱 오차)
- regression에서 사용
- Logistic Loss Function (로지스틱 손실 함수)
728x90
반응형