EEG 데이터에 대한 반복 (CNN) 모델


10

EEG 컨텍스트에서 반복 아키텍처를 해석하는 방법이 궁금합니다. 특히 이것을 LSTM과 같은 아키텍처와 달리 Recurrent CNN이라고 생각하지만 다른 유형의 반복 네트워크에도 적용될 수 있습니다.

R-CNN에 대해 읽으면 일반적으로 이미지 분류 컨텍스트에서 설명됩니다. 일반적으로 "시간에 따른 학습"또는 "현재 입력에 대한 시간 -1의 영향 포함"으로 설명됩니다.

이 해석 / 설명은 EEG 데이터로 작업 할 때 실제로 혼란스러워집니다. EEG 데이터에 사용되는 R-CNN의 예는 여기 에서 찾을 수 있습니다.

각각 1x512 배열로 구성된 교육 예제가 있다고 가정합니다. 이 어레이는 512 개의 연속 시점에서 1 개의 전극에 대한 전압 판독 값을 캡처합니다. 이것을 반복 CNN (1D 컨볼 루션 사용)에 대한 입력으로 사용하면 모델의 반복 부분이 실제로 "시간"을 캡처하지 않습니다. (앞서 설명한 설명 / 설명에서 알 수 있듯이)이 문맥에서 시간은 이미 배열의 두 번째 차원에 의해 캡처 되었기 때문에

이와 같은 설정을 사용하면 네트워크의 반복 부분에서 실제로 CNN이 할 수없는 시간을 모델링 할 수있는 것은 무엇입니까?

되풀이는 컨볼 루션을 수행하고 결과를 원래 입력에 추가하고 다시 전개하는 것을 의미합니다. 이것은 x 개의 반복 단계에 대해 반복된다. 이 프로세스는 실제로 어떤 이점을 제공합니까?


ID를 배우는 것이 어려울 수 있기 때문에 각 단계에서 원래 입력을 유지하는 것이 유용하다고 생각합니다. 그래서 잔류 네트워크를 사용하거나 숨겨진 레이어를 무시하기 위해 입력을 복사하는 것이 유용 할 수 있습니다. eeg에 적용되는 RCNN의 특별한 경우에, 컨볼 루션 태그는 그 시간에 일부 기능이 나타나기 때문에 시간 t = 50ms라고 상상할 수 있습니다. 그런 다음 네트워크는 특정 시간에 추가 입력을 위해 원래 입력을 볼 수 있습니다.
agemO

답변:


1

네트워크의 반복 부분을 통해 일반적으로 장기 및 단기 종속성을 모델링 할 수 있습니다. 따라서 모델의 상태 감각이있을 수 있습니다.

시계열을 사용하는 경우 일반적으로 유리합니다. 예를 들어, 심박수 모니터의 데이터가 있고 휴식, 스트레스 및 회복 사이를 분류하려는 경우. 데이터 포인트에 심박수가 130이라고 표시되면 높은 부하에서 회복하는지 또는 다른 것으로 복구되는지에 따라 다릅니다.

편집 : 두 번째 질문을 잊어 버렸습니다.

되풀이는 컨볼 루션을 수행하고 결과를 원래 입력에 추가하고 다시 전개하는 것을 의미합니다. 이것은 x 개의 반복 단계에 대해 반복된다. 이 프로세스는 실제로 어떤 이점을 제공합니까?

몇 가지 가능한 답변을 생각할 수 있습니다. 반복되는 부분을 복잡하게 만들면 필터링 할 수 있습니다. 따라서 신호가 더 깨끗 해지고 오류가 많이 쌓이지 않습니다. 바닐라 rnn은 사라지는 그라디언트 폭발로 어려움을 겪으므로이를 극복하기위한 그의 접근 방법이 될 수 있습니다. 또한, rcnn에 기능을 포함 시키므로 언급 한 바와 같이 악용 할 수있는 더 많은 경로로 이어질 수 있습니다. 이는 과적 합이 덜 발생하므로 일반화가 가능합니다.


0
  • 1x512 입력 어레이의 의미 : 재귀 네트워크는 전극 전압을 512 번 처리합니다. 즉, 처리 할 단일 기능이 있습니다.
  • 하나의 기능을 가진 CNN은 쓸모가 없습니다.

-1

CNN은 기능 탐지기입니다. 컨볼 루션 레이어의 출력은 특정 기능이 감지 된 위치를 나타내는 매트릭스입니다.

따라서 반복적 인 CNN은 일련의 기능을 학습하는 반복적 인 신경망이며, 이러한 기능은 훈련 중에도 학습됩니다.


2
CNN은 피처 검출기가 아니며 피처 공간을 변환 한 다음 변환 된 피처를 출력에 매핑하는 함수 추정기입니다. 또한 OP가 요청한 내용이 전혀 아닙니다. 주석 대신 주석을 사용하십시오. 그러면 질문에 대한 답변이 표시되고 다른 사람들이 클릭하는 것을 방지 할 수 있습니다.
JahKnows

@JahKnows 해석에 따라 다르지 않습니까? (yosinski.com/deepvis)를 살펴보십시오. 도움이 될 수 있습니다.
Media

@ncasas 단락에 대한 링크를 제공 하시겠습니까?
Media
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.