사전 지식 KL-Divergence(쿨백-라이블러 발산): 두 확률 분포의 차이를 측정하는 지표→ 주로 두 확률 분포가 얼마나 다른지를 비교하는 데 사용됩니다. KL-Divergence는 정보 이론과 확률 이론에서 많이 사용되며, 분포 간의 거리를 측정하여 모델의 학습 및 평가에 유용하게 활용 DKL(Q || P) vs DKL(P || Q) 일때 차이는?DKL(P || Q)는 확률 분포 P를 기준으로, 분포 Q와의 차이를 나타냅니다. 이는 P를 얼마나 잘 나타내는지를 평가하는 지표로서, 모델의 학습 및 평가에 유용합니다.반면에 DKL(Q || P)는 확률 분포 Q를 기준으로, 분포 P와의 차이를 나타냅니다. 이는 Q를 얼마나 잘 나타내는지를 평가하는 지표로서, 다른 관점에서의 분포 비교에 사용될 수 ..