기계 학습의 필수 아이디어 중 일부에 대한 세계적 관점을 얻으려고 노력하고 있으며 손실의 다른 개념 (제곱, 로그, 힌지, 프록시 등)에 대한 포괄적 인 처리가 있는지 궁금합니다. 나는 Loss Function Semantics 에 관한 John Langford의 훌륭한 포스트에 대한보다 포괄적이고 공식적인 발표를 통해 무언가를 생각하고있었습니다 .
기계 학습의 필수 아이디어 중 일부에 대한 세계적 관점을 얻으려고 노력하고 있으며 손실의 다른 개념 (제곱, 로그, 힌지, 프록시 등)에 대한 포괄적 인 처리가 있는지 궁금합니다. 나는 Loss Function Semantics 에 관한 John Langford의 훌륭한 포스트에 대한보다 포괄적이고 공식적인 발표를 통해 무언가를 생각하고있었습니다 .
답변:
에너지 기반 학습에 대한 튜토리얼 LeCun 등에 의한. 거기에 당신에게 좋은 부분을 줄 수 있습니다. 그들은 많은 손실 함수를 설명하고 에너지 기반 모델에 대해 "좋은지 나쁜지"에 대해 논의합니다.
나는이 질문이 오래되었다는 것을 알고 있지만 현재 관심이있는 것입니다.
볼록 손실 함수 및 분류기 일관성에 관한 아주 좋은 논문은 Tong Zhang의 " 볼록 위험 최소화를 기반으로 한 분류 방법의 통계적 행동 및 일관성 "입니다.