[카테고리:] 기초적인 이론 연구
머신러닝을 이해하기 위한 미분 강좌 (2)
머신러닝을 이해하기 위한 미분 강좌 (1)
호기심은 AI도 가질 수 있다. AI Curiosity-Driven Learning
인공지능은 어떻게 스스로 학습할까 ? Reinforcement Learning
Classification
Cost 함수 크로스 앤트로피 (cross_entropy)
크로스 엔트로피(Cross-Entropy)는 주로 분류 문제에서 두 확률 분포 간의 차이를 측정하는 데 사용되는 정보 이론의 개념입니다. 특히, 머신러닝 및 딥러닝에서 분류 작업의 손실 함수로 널리 사용됩니다.
크로스 엔트로피는 다음과 같이 정의됩니다:
– 이진 분류(Binary Cross-Entropy): 주로 이진 분류 문제에 사용됩니다.
– 이진 분류 문제에서는 각 예시에 대해 두 가지 클래스 중 하나를 예측하는 모델을 사용합니다.
– 모델의 출력을 통해 예시가 클래스 1일 확률을 p, 클래스 0일 확률을 1-p로 가정합니다.
– 실제 레이블을 통해 클래스 1에 속하는 경우 크로스 엔트로피는 -log(p)입니다.
– 실제 레이블을 통해 클래스 0에 속하는 경우 크로스 엔트로피는 -log(1-p)입니다.
– 범주형 분류(Categorical Cross-Entropy): 주로 다중 클래스 분류 문제에 사용됩니다.
– 다중 클래스 분류 문제에서는 각 예시가 여러 클래스 중 하나에 속하는 경우를 다룹니다.
– 모델의 출력은 예시가 각 클래스에 속할 확률 분포로 해석됩니다.
– 실제 레이블은 해당 클래스에 대한 확률이 1이고 다른 클래스에 대한 확률이 0인 원-핫 인코딩입니다.
– 크로스 엔트로피는 예측 확률 분포와 실제 원-핫 인코딩 레이블 간의 차이를 측정합니다.
크로스 엔트로피의 주요 아이디어는 예측이 실제 레이블과 얼마나 다른지를 정량화하며, 예측이 정확할수록 손실은 낮아집니다. 모델의 학습 과정에서 이 손실 함수를 최소화하는 방향으로 가중치를 조정하려고 노력합니다.
크로스 엔트로피 손실 함수는 분류 문제의 경우 효과적이며, 모델의 출력 확률 분포를 실제 레이블과 얼마나 잘 맞추는지를 측정합니다.
SOFTMAX 함수와 One Hot Encoding
SOFTMAX 함수
활성함수(Activation) 시그모이드(Sigmoid)함수
3분 머신 러닝 기초 이론 연구 – 활성함수(Activation) 시그모이드(Sigmoid)함수에 대한 설명입니다. 실수로 나오는 결과 값을 0,1로 만들어 줍니다.