두 네트워크 모두 유사한 아키텍처를 공유하지만 섹션 4 [1]에서 설명한 출판물과 동일한 가중치를 갖도록 제한됩니다.
그들의 목표는 서명이 진짜 일 때 출력 벡터 사이의 코사인 유사성을 최소화하고 위조 될 때 최대화하는 기능을 배우는 것입니다 (이것은 백프로 프 목표이지만 실제 손실 함수는 제시되지 않습니다).
cos(A,B)=A⋅B∥A∥∥B∥A,B
출력 레이어를 변경해서는 안되며, 선형 값과 입력의 상위 수준 추상화가있는 훈련 된 뉴런으로 구성됩니다. 전체 네트워크는 함께 훈련되어야합니다. 두 출력 과 는 코사인 유사성을 출력 하는 함수를 통해 전달됩니다 유사한 경우 , 그렇지 않은 경우 ). 인 두 개의 입력 튜플 세트 가 있다고 가정하면 훈련해야 할 가장 간단한 손실 함수의 예는 다음과 같습니다.O1O2cos(O1,O2)10XForged,XGenuine
L=∑(xA,xB)∈XForgedcos(xA,xB)−∑(xC,xD)∈XGenuinecos(xC,xD)
네트워크를 한 후에는 두 출력이 함수로 전달되는 두 개의 서명을 입력 하고 유사성을 확인하면됩니다.cos(O1,O2)
마지막으로, 네트워크 가중치를 동일하게 유지하기 위해 여러 가지 방법이 있습니다 (그리고 반복 신경 네트워크에서도 사용됨). 일반적인 접근 방식은 그라디언트 하강 업데이트 단계를 수행하기 전에 두 네트워크의 그라디언트를 평균화하는 것입니다.
[1] http://papers.nips.cc/paper/769-signature-verification-using-a-siamese-time-delay-neural-network.pdf