[글쓴이:] shop2world
머신러닝을 이해하기 위한 미분 강좌 (2)
머신러닝을 이해하기 위한 미분 강좌 (1)
왜 아줌마도 인공지능에 관심을 가지면 좋을 때인가?
호기심은 AI도 가질 수 있다. AI Curiosity-Driven Learning
인공지능은 어떻게 스스로 학습할까 ? Reinforcement Learning
인공지능은 어떻게 주가를 예측 할 수 있을까?
Classification
Cost 함수 크로스 앤트로피 (cross_entropy)
크로스 엔트로피(Cross-Entropy)는 주로 분류 문제에서 두 확률 분포 간의 차이를 측정하는 데 사용되는 정보 이론의 개념입니다. 특히, 머신러닝 및 딥러닝에서 분류 작업의 손실 함수로 널리 사용됩니다.
크로스 엔트로피는 다음과 같이 정의됩니다:
– 이진 분류(Binary Cross-Entropy): 주로 이진 분류 문제에 사용됩니다.
– 이진 분류 문제에서는 각 예시에 대해 두 가지 클래스 중 하나를 예측하는 모델을 사용합니다.
– 모델의 출력을 통해 예시가 클래스 1일 확률을 p, 클래스 0일 확률을 1-p로 가정합니다.
– 실제 레이블을 통해 클래스 1에 속하는 경우 크로스 엔트로피는 -log(p)입니다.
– 실제 레이블을 통해 클래스 0에 속하는 경우 크로스 엔트로피는 -log(1-p)입니다.
– 범주형 분류(Categorical Cross-Entropy): 주로 다중 클래스 분류 문제에 사용됩니다.
– 다중 클래스 분류 문제에서는 각 예시가 여러 클래스 중 하나에 속하는 경우를 다룹니다.
– 모델의 출력은 예시가 각 클래스에 속할 확률 분포로 해석됩니다.
– 실제 레이블은 해당 클래스에 대한 확률이 1이고 다른 클래스에 대한 확률이 0인 원-핫 인코딩입니다.
– 크로스 엔트로피는 예측 확률 분포와 실제 원-핫 인코딩 레이블 간의 차이를 측정합니다.
크로스 엔트로피의 주요 아이디어는 예측이 실제 레이블과 얼마나 다른지를 정량화하며, 예측이 정확할수록 손실은 낮아집니다. 모델의 학습 과정에서 이 손실 함수를 최소화하는 방향으로 가중치를 조정하려고 노력합니다.
크로스 엔트로피 손실 함수는 분류 문제의 경우 효과적이며, 모델의 출력 확률 분포를 실제 레이블과 얼마나 잘 맞추는지를 측정합니다.