EEG 컨텍스트에서 반복 아키텍처를 해석하는 방법이 궁금합니다. 특히 이것을 LSTM과 같은 아키텍처와 달리 Recurrent CNN이라고 생각하지만 다른 유형의 반복 네트워크에도 적용될 수 있습니다.
R-CNN에 대해 읽으면 일반적으로 이미지 분류 컨텍스트에서 설명됩니다. 일반적으로 "시간에 따른 학습"또는 "현재 입력에 대한 시간 -1의 영향 포함"으로 설명됩니다.
이 해석 / 설명은 EEG 데이터로 작업 할 때 실제로 혼란스러워집니다. EEG 데이터에 사용되는 R-CNN의 예는 여기 에서 찾을 수 있습니다.
각각 1x512 배열로 구성된 교육 예제가 있다고 가정합니다. 이 어레이는 512 개의 연속 시점에서 1 개의 전극에 대한 전압 판독 값을 캡처합니다. 이것을 반복 CNN (1D 컨볼 루션 사용)에 대한 입력으로 사용하면 모델의 반복 부분이 실제로 "시간"을 캡처하지 않습니다. (앞서 설명한 설명 / 설명에서 알 수 있듯이)이 문맥에서 시간은 이미 배열의 두 번째 차원에 의해 캡처 되었기 때문에
이와 같은 설정을 사용하면 네트워크의 반복 부분에서 실제로 CNN이 할 수없는 시간을 모델링 할 수있는 것은 무엇입니까?
되풀이는 컨볼 루션을 수행하고 결과를 원래 입력에 추가하고 다시 전개하는 것을 의미합니다. 이것은 x 개의 반복 단계에 대해 반복된다. 이 프로세스는 실제로 어떤 이점을 제공합니까?