머신 러닝에서 "사전"이라는 용어의 의미


12

나는 기계 학습을 처음 사용합니다. 나는 다양한 애플리케이션에 대해 딥 러닝을 사용하고 대부분의 모델 디자인 사례에서 "사전"이라는 용어를 사용한 여러 논문을 읽었습니다. 누군가 그것이 실제로 무엇을 의미하는지 설명 할 수 있습니까? 튜토리얼에서 이전과 이후의 수학적 공식 만 찾을 수있었습니다.


5
수학적 개념이므로 수학적으로 공식화되었습니다. 그러나 Wikipedia 페이지 는 많은 직관을 제공하는 것 같습니다. 확인 했습니까? 그렇다면 이해하지 못한 것과 답변에서 찾고있는 것에 대해 더 말할 수 있습니까?
David Richerby

@David Richerby . 당신의 응답을 주셔서 감사합니다. 예, 나는 위키 백과 페이지를 확인 했으며 변수에 대한 지식이나 정보에 관한 모호한 아이디어를 모을 수 있습니다. 나는 신체 자세 사전, 신체 운동 학적 사전, 3D 인간 자세 이상의 사전 모델링, 학습 우선, 3D 인간 자세 추정에 대한 언급이있는 신체 자세 추정에 관한 논문을 읽었습니다. 나는이 맥락에서 "사전"이라는 용어가 실제로 무엇을 의미하는지 명확하게 파악할 수 없었다.
Amy

답변:


13

간단히 말해서 수학 기호없이 사전 은 확률 분포 측면에서 사건에 대한 초기 신념을 의미 합니다. 그런 다음 실험을 설정하고 데이터를 얻은 다음 실험 결과 (후부 확률 분포)에 따라 신념 (따라서 확률 분포)을 "업데이트"합니다.

예 : 동전 두 개가 있다고 가정 해 봅시다. 그러나 우리는 어떤 동전이 가짜인지 모릅니다. 코인 1은 편향되어 있지 않으며 (HEADS 및 TAILS의 확률은 50 % 임) 코인 2는 편향되어 있습니다. 즉, HEADS에 60 %의 확률을줍니다. 수학적으로 :

p(H|Coin1)=0.4
p(H|Coin2)=0.6

이것이 실험을 시작하기 전에 우리가 아는 모든 것입니다.

이제 동전 던지기를 선택하고, 가지고있는 정보 (H 또는 T)에 따라 선택한 동전 (Coin 1 또는 Coin 2)을 추측합니다.

p(Coin1)=p(Coin2)=0.5 분포.

p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4

p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6

0.5

이것이 머신 러닝에 사용되는 베이지안 추론 및 통계의 기본 원리입니다.


2
위 예제를 수정해야합니다. 이 계산은 두 동전이 편향되어 있음을 보여줍니다 (첫 번째 동전은 머리가 40 %이고 두 번째 동전은 머리가 60 %입니다). = 5 / 11 및 P (Coin2 | H) = 6 / 11
다니엘 스 _pa

1
해야 "은 0.4입니다 동전 1 확률, 우리가 머리를 가지고 감안할 때" 로 다시 작성 "우리가 동전 하나, 그것은 HEADS 것을 확률이 0.4이 있음을 감안할 때" ?
Mateen Ulhaq

설명은 기계 학습 측면에서 설명하지 않습니다.
user3023715
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.