어떤 종류의 신경망이 사용됩니까?


11

나는 다음과 같은 신경망 치트 시트 ( AI를위한 치트 시트, 신경망, 기계 학습, 딥 러닝 및 빅 데이터 )를 발견했다.

여기에 이미지 설명을 입력하십시오

이 모든 종류의 신경망은 무엇에 사용됩니까? 예를 들어 회귀 또는 분류에 사용할 수있는 신경망, 시퀀스 생성 등에 사용할 수있는 신경망은 무엇입니까? 응용 프로그램에 대한 간략한 개요 (1-2 줄)가 필요합니다.

답변:


9

나는 이것이 너무 광범위하다는 것에 동의하지만, 대부분의 사람들에게 1 문장 답변이 있습니다. 내가 차트에서 제외한 것은 매우 현대적이고 매우 전문적입니다. 나는 그들에 대해 많이 알지 못하므로 아마도이 답변을 향상시킬 수있는 누군가가 있습니다.

  • 퍼셉트론 : 선형 또는 로지스틱 형 회귀 (및 분류).
  • 피드 포워드 : 일반적으로 비선형 회귀 또는 S 자형 활성화를 사용한 분류. 본질적으로 다층 퍼셉트론.
  • 방사형베이스 네트워크 : 방사형베이스 활성화 기능이있는 피드 포워드 네트워크. 분류 및 일부 비디오 / 오디오 필터링에 사용
  • 딥 피드 포워드 : 둘 이상의 숨겨진 레이어로 피드 포워드합니다. 분류 또는 회귀, 강화 학습에서보다 복잡한 패턴을 학습하는 데 사용됩니다.

  • 반복 신경망 : 일부 노드가 과거 레이어에 연결되는 딥 피드 포워드 네트워크 . 강화 학습 및 텍스트 또는 오디오와 같은 순차적 데이터의 패턴을 학습하는 데 사용됩니다.
  • LSTM : 신호를 더 오랫동안 기억하거나 선택적으로 잊어 버릴 수있는 특수 제어 뉴런 (때로는 게이트라고도 함)이있는 반복적 인 신경망. 모든 RNN 응용 프로그램에서 사용되며 반복 시간이 매우 긴 시퀀스를 학습 할 수 있습니다.
  • GRU : 특수 제어 뉴런이있는 또 다른 종류의 게이트 RNN 인 LSTM과 매우 유사합니다.

  • 자동 인코더 : 데이터를 압축 한 다음 압축 해제하는 방법을 배웁니다. 이 모델을 학습 한 후에는 두 가지 유용한 하위 파트로 나눌 수 있습니다. 입력 공간에서 저 차원 피쳐 공간으로의 맵핑으로 해석하기 쉽고 이해하기 쉽습니다. 및 간단한 숫자의 작은 차원의 서브 스페이스로부터 복잡한 패턴으로의 맵핑을 포함하며, 이는 복잡한 패턴을 생성하는데 사용될 수있다. 비전, 언어 및 오디오 처리에 관한 많은 현대 작업의 기초.
  • VAE, DAE, SAE : 자동 인코더의 전문화.

  • 마르코프 체인 : 마르코프 체인의 신경망 표현 : 상태는 활성화 된 뉴런 세트로 인코딩되므로 전이 확률은 가중치로 정의됩니다. 전환 확률 학습 및 다른 응용 프로그램에 대한 감독되지 않은 기능 학습에 사용됩니다.
  • HN, BM, RBM, DBM : 다른 애플리케이션에 유용한 기능을 자동으로 학습하는 데 사용되는 Markov Chain 아이디어를 기반으로하는 특수 아키텍처입니다.

  • 딥 컨볼 루션 네트워크 : 피드 포워드 네트워크와 비슷하지만 각 노드는 실제로 이전 계층에서 컨벌루션을 학습하는 노드 뱅크입니다. 이것은 본질적으로 비디오, 오디오 프로세싱에서 필터, 에지 검출기 및 기타 관심 패턴을 학습 할 수있게합니다.

  • 딥 디콘 볼 루션 네트워크 : 어떤 의미에서 컨볼 루션 네트워크의 반대. 보이지 않는 이미지의 가장자리 또는 기타 높은 수준의 속성을 나타내는 기능에서 픽셀 공간으로의 매핑을 학습합니다. 요약에서 이미지를 생성하십시오.

  • DCIGN : 본질적으로 DCN과 DN으로 구성된 자동 인코더는 서로 붙어 있습니다. 얼굴과 같은 복잡한 이미지의 생성 모델을 학습하는 데 사용됩니다.

  • Generative Adversarial Network : DCIGN에 충분한 교육 데이터가없는 경우 복잡한 이미지 (또는 다른 데이터 유형)에 대한 생성 모델을 학습하는 데 사용됩니다. 한 모델은 랜덤 노이즈에서 데이터를 생성하는 방법을 배우고 다른 모델은 사용 가능한 트레이닝 데이터와는 다른 첫 번째 네트워크의 출력을 분류하는 방법을 배웁니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.