«loss-functions» 태그된 질문

모델에 따라 관측 된 데이터와 예측 된 값의 차이를 정량화하는 데 사용되는 함수입니다. 손실 함수의 최소화는 모델의 매개 변수를 추정하는 방법입니다.

1
logloss에 대한 직관적 인 설명
몇몇 kaggle 경쟁에서 점수는 "logloss"에 기초합니다. 분류 오류와 관련이 있습니다. 여기에 기술적 답변이 있지만 직관적 인 답변을 찾고 있습니다. 나는 Mahalanobis 거리에 대한 이 질문 에 대한 답변을 정말로 좋아 했지만 PCA는 logloss가 아닙니다. 분류 소프트웨어가 제공하는 가치를 사용할 수 있지만 실제로 이해하지는 못합니다. 우리는 왜 true / false positive …

4
회귀에 대한 신경망 훈련은 항상 평균을 예측합니다
이미지에서 상자의 (x, y) 위치를 예측하는 작업 인 회귀를위한 간단한 회선 신경 네트워크를 훈련하고 있습니다. 네트워크의 출력에는 x와 y에 각각 하나씩 두 개의 노드가 있습니다. 나머지 네트워크는 표준 컨볼 루션 신경망입니다. 손실은 상자의 예측 위치와 실제 위치 사이의 표준 평균 제곱 오차입니다. 이 이미지 중 10000 개를 교육하고 2000 년에 …


2
베이 추정기의 비교
사전에 주어진 여기서 와 함께 차 손실 를 고려하십시오 . 하자 가능성. Bayes 추정기 찾으십시오 .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi 가중 2 차 손실 여기서 와 종래 . 하자 이 될 가능성이있다. Bayes 추정량 찾으십시오 .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 비교 와δπδπ\delta^\piδπ1δ1π\delta^\pi_1 먼저 이라는 것을 알았으며 그럴 가능성이 있다고 가정했습니다. 그렇지 않으면 사후가 …

1
L2가 사후 손실을 계산하기에 좋은 손실 함수 인 경우의 예는 무엇입니까?
L0 및 L1 손실과 함께 L2 손실은 최소 사후 예상 손실로 사후를 요약 할 때 사용되는 매우 일반적인 "기본"손실 함수입니다. 이것에 대한 한 가지 이유는 아마도 계산하기가 비교적 쉽고 (적어도 1 차원 분포의 경우), L0은 모드에서, L1은 중앙값에서, L2는 평균으로 나타납니다. 강의 할 때 L0과 L1이 합리적인 손실 함수 ( …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.