이 질문의 초점
"어떻게 ... 동일한 분포에서 실제 분포의 데이터와 생성 모델의 데이터를 처리 할 수 있습니까?
기초 출판물 분석
참조 된 페이지 인 Generative Adversarial Networks (2017) 에서 박사 후보 인 Daniel Sieta는 Generative Adversarial Networks, Goodfellow, Pouget-Abadie, Mirza, Xu, Warde-Farley, Ozair, Courville 및 Bengio, 2014 년 6 월을 올바르게 참조합니다 . "우리는 두 가지 모델을 동시에 훈련시키는 적대적 프로세스를 통해 생성 모델을 추정하기위한 새로운 프레임 워크를 제안합니다."
이 두 모델은 하나가 다른 것에 대해 부정적인 피드백의 형태를 제공하는 방식으로 제어되므로 적이라는 용어가 사용됩니다.
- G는 D를 속일만큼 충분히 일련의 예제의 데이터 분포를 캡처하도록 훈련되었습니다.
- D는 입력이 G의 모의인지 또는 GAN 시스템의 예 세트인지를 학습하도록 훈련받습니다.
(GAN 시스템에 대한 예제 세트는 실제 샘플이라고도하지만 생성 된 것보다 더 실제적이지 않을 수 있습니다. 둘 다 컴퓨터의 숫자 배열이며, 하나는 내부 원점과 다른 하나는 외부 원점입니다. 외부 카메라가 실제 장면을 가리키는 카메라에서 가져온 것인지 여부는 GAN 작동과 관련이 없습니다.)
확률 적으로 D를 속이는 것은 D가 올바른 분류를 할 때마다 50 % 씩 오탐과 오음이 발생할 확률을 최대화하는 것과 동의어입니다. 정보 과학에서, 이것은 정보의 한계 D가 무한대에 접근함에 따라 G가 0에 접근한다는 것을 의미한다. 그것은 D의 관점에서 G의 엔트로피를 최대화하는 과정이므로 교차 엔트로피라는 용어입니다.
컨버전스 달성 방법
문제에 대한 Sieta의 2017 년 글에서 재현 된 손실 함수는 D의 함수이므로 주어진 훈련 상태에 대한 전체 세트에 적용될 때 두 분포 사이의 교차 엔트로피 (또는 상관 관계)를 최소화하도록 설계되었습니다.
H( ( x1, y1) , D ) = 1D ( x1)
교차 엔트로피를 최대화하도록 설계된 G에 대한 별도의 손실 함수가 있습니다. 시스템에는 두 가지 수준의 훈련 세분성이 있습니다.
- 2 인 게임에서 게임의 움직임
- 훈련 샘플의 것
이것들은 다음과 같이 외부 반복으로 중첩 반복을 생성합니다.
- G의 훈련은 G의 손실 함수를 사용하여 진행됩니다.
- 모의 입력 패턴은 현재 훈련 상태에서 G에서 생성됩니다.
- D의 훈련은 D의 손실 함수를 사용하여 진행됩니다.
- 교차 엔트로피가 아직 충분히 최대화되지 않은 경우 반복하면 D는 여전히 식별 할 수 있습니다.
D가 마침내 게임에서 졌을 때, 우리는 목표를 달성했습니다.
- G는 훈련 데이터 배포를 복구
- D는 비 효율성으로 감소되었습니다 ( "1/2 확률")
동시 교육이 필요한 이유
두 모델이 동시성을 시뮬레이션하기 위해 앞뒤로 훈련되지 않은 경우 2014 년 논문에서 주장한 고유 한 솔루션에서 대적 평면 (외부 반복)의 수렴이 발생하지 않습니다.
추가 정보
문제를 넘어서, Sieta의 논문에서 관심을 갖는 다음 항목은 "발전기 손실 함수의 불량한 설계"가 하강을 유도하고 때때로 포화라고하는 것을 생성하기에 불충분 한 기울기 값으로 이어질 수 있다는 것입니다. 채도는 단순히 역 전파의 하강을 부동 소수점 반올림으로 인해 발생하는 혼란스러운 노이즈로 안내하는 피드백 신호의 감소입니다. 이 용어는 신호 이론에서 비롯됩니다.
Goodfellow 등 (노련한 연구원) 의 2014 년 논문을 검토 하여 2017 페이지가 아닌 GAN 기술에 대해 배울 것을 제안 합니다.