Machine Learning

Entropy, Cross entropy loss란?

씨주 2024. 4. 28. 21:40

 

[밑바닥부터시작하는딥러닝1] Chapter 4. 신경망 학습

 

[밑바닥부터시작하는딥러닝1] Chapter 4. 신경망 학습

학습 : 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것 4.1. 데이터에서 학습한다!✔️ 데이터 주도 학습1. 그림을 분류하는 알고리즘을 사람이 직접 설계2. 이미지에서

heejudeveloper.tistory.com

위 글에서 알아봤던 크로스엔트로피가 확실하게 정의되지 않은 것 같아서 간단하게 한번 더 정리해보려 한다.

 

📌 Entropy

불확실성의 척도

엔트로피가 높다는 것은 정보가 많고 확률이 낮다는 것(분류가 잘 되어있지 않다는 것)

 

📌 Cross-Entropy

실제 분포 q를 모를 때 q분포를 예측하는 것

쉽게 말해 모델이 예측한 확률값과 실제값을 비교했을 때 틀리는 정도를 표현했다고 할 수 있다.

 

분류문제에서 데이터의 라벨은 one-hot encoding으로 표현한다.

특정 데이터가 n번째 클래스에 속할 때 해당 원소만 1이고 나머지는 0으로 채운 n차원 벡터로 놓는다.

입력데이터가 모델을 통과하면 소프트맥스 함수에 의해 각 클래스에 속할 확률이 구해지고

 

데이터가 실제로 2번 클래스에 속할 경우 실제 확률 분포는 아래와 같다.

 

이를 cross-entropy로 표현하면 아래와 같아지며 이를 최소화하는 것이 모델의 목표라고 할 수 있다.

 

 

참고 :

https://velog.io/@rcchun/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%ED%81%AC%EB%A1%9C%EC%8A%A4-%EC%97%94%ED%8A%B8%EB%A1%9C%ED%94%BCcross-entropy

https://velog.io/@osk3441/%EC%A0%95%EB%B3%B4%EC%9D%B4%EB%A1%A0Cross-Entropy-Loss-oqshp2jj