«deep-learning» 태그된 질문

데이터의 계층 적 표현을 학습하는 데 사용되는 기술과 관련된 새로운 기계 학습 연구 영역으로, 주로 심층 신경망 (즉, 둘 이상의 숨겨진 레이어가있는 네트워크)과 일종의 확률 적 그래픽 모델로 수행됩니다.

1
제스처 인식 시스템에 RNN (LSTM) 사용
ASL (American Sign Language) 제스처 를 분류하기위한 제스처 인식 시스템을 구축하려고합니다 . 따라서 입력은 카메라 또는 비디오 파일에서 프레임 시퀀스로 가정되며 시퀀스를 감지하여 해당하는 것에 매핑합니다 수업 (수면, 도움, 식사, 달리기 등) 문제는 이미 비슷한 시스템을 구축했지만 정적 이미지 (모션 포함 되지 않음)의 경우 손이 많이 움직이지 않고 CNN 을 …

1
AlphaGo Zero의 "신규 강화 학습 알고리즘"은 무엇입니까?
어떤 이유로 든 AlphaGo Zero는 놀라운 결과에도 불구하고 Original AlphaGo만큼 많은 홍보를 얻지 못했습니다. 처음부터 시작하여 이미 AlphaGo Master를 이겼으며 수많은 다른 벤치 마크를 통과했습니다. 훨씬 더 믿을 수없이 40 일 만에이 작업이 완료됩니다. 구글은이를 "세계 최고의 Go 플레이어"라고 지었다 . DeepMind는 이것이 "새로운 형태의 강화 학습"이라고 주장합니다.이 기법은 참신한가요? …

1
1D 시계열이있는 Keras LSTM
Keras 사용법을 배우고 있으며 Chollet 's Deep Learning for Python 의 예제를 사용하여 레이블이 지정된 데이터 세트로 합리적인 성공을 거두었습니다 . 데이터 세트는 3 개의 잠재적 클래스를 가진 길이가 3125 인 ~ 1000 시계열입니다. 70 %의 예측률을 제공 하는 기본 Dense 레이어를 넘어서서이 책에서 LSTM 및 RNN 레이어에 대해 논의하려고합니다. …

1
Keras를 사용하여 딥 러닝을위한 데이터 재구성
Keras의 초보자이며 라이브러리가 실제로 어떻게 작동하는지 이해하기 위해 MNIST 예제로 시작했습니다. Keras 예제 폴더에서 MNIST 문제의 코드 스 니펫은 다음과 같습니다. import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, Flatten from keras.layers import Convolution2D, MaxPooling2D from …

1
자동 엔코더 변환
방금 자동 인코더 변환에 관한 Geoff Hinton의 논문을 읽었습니다. Hinton, Krizhevsky 및 Wang : 자동 인코더 변환 . 인공 신경 네트워크 및 기계 학습에서, 2011. 이런 식으로 장난하고 싶습니다. 그러나 그것을 읽은 후에는 실제로 그것을 구현할 수있는 방법에 대한 논문에서 충분한 세부 정보를 얻을 수 없었습니다. 입력 픽셀과 캡슐 간의 …


2
숨겨진 레이어를 2 개만 사용하여 숫자 정렬
Ilya Sutskever와 Quoc Le의 신경망을 이용한 시퀀스 학습 의 초석 논문을 읽고 있습니다. 첫 페이지에는 다음과 같이 간단히 언급되어 있습니다. A surprising example of the power of DNNs is their ability to sort N N-bit numbers using only 2 hidden layers of quadratic size 숨겨진 레이어를 2 개만 사용하여 숫자를 …

4
함수가 매끄럽다면 왜 그라데이션 하강 속도가 빨라 집니까?
이제 "Scikit-Learn 및 TensorFlow를 사용한 실습 머신 러닝" 이라는 책을 읽었으며 11 장에는 ELU (지수 적 ReLU)에 대한 설명이 있습니다. 셋째,이 기능은 z = 0을 포함하여 모든 곳에서 부드럽습니다. z = 0만큼 좌우로 튀지 않기 때문에 그라데이션 하강 속도를 높이는 데 도움이됩니다. z수단은 상기 그래프에서 X 축. z < 0선에 …



1
방법 : 심층 신경망 가중치 초기화
을 감안할 때 어려운 학습 과제 (예 : 높은 차원, 고유 데이터의 복잡성) 깊은 신경망은 기차 열심히된다. 많은 문제를 해결하기 위해 : 품질 데이터 표준화 및 핸드 픽 다른 학습 알고리즘을 선택하십시오 (예 : Gradient Descent 대신 RMSprop) 더 가파른 그래디언트 비용 함수 선택 (예 : MSE 대신 교차 엔트로피) …

1
이전 Convolutional Layer의 델타 항과 가중치를 고려하여 Convolutional Layer의 델타 항을 어떻게 계산합니까?
두 개의 회선 레이어 (c1, c2)와 두 개의 숨겨진 레이어 (c1, c2)로 인공 신경망을 훈련하려고합니다. 표준 역 전파 접근법을 사용하고 있습니다. 역방향 패스에서 이전 레이어의 오류, 이전 레이어의 가중치 및 현재 레이어의 활성화 기능에 대한 활성화의 기울기를 기반으로 레이어의 델타 항을 계산합니다. 보다 구체적으로 l 계층의 델타는 다음과 같습니다. delta(l) …

2
배치 정규화는 S 자형이 ReLU보다 더 잘 작동한다는 것을 의미합니까?
배치 정규화와 ReLU는 모두 사라지는 기울기 문제에 대한 솔루션입니다. 배치 정규화를 사용하는 경우 시그 모이 드를 사용해야합니까? 또는 batchnorm을 사용할 때에도 가치가있는 ReLU 기능이 있습니까? batchnorm에서 수행 된 정규화는 0의 활성화를 마이너스로 전송한다고 가정합니다. 이것은 batchnorm이 "dead ReLU"문제를 해결한다는 의미입니까? 그러나 탄과 물류의 지속적인 특성은 여전히 ​​매력적입니다. batchnorm을 사용하는 경우 …

1
Keras 모델이 배경을 인식하는 방법을 배우는 이유는 무엇입니까?
사전 훈련 된 모델을 사용하여 Pascal VOC2012에서 Deeplabv3 + 의이 Keras 구현 을 훈련하려고합니다 (이 데이터 세트에서도 훈련 됨). 정확도가 1.0으로 빠르게 수렴되는 이상한 결과를 얻었습니다. 5/5 [==============================] - 182s 36s/step - loss: 26864.4418 - acc: 0.7669 - val_loss: 19385.8555 - val_acc: 0.4818 Epoch 2/3 5/5 [==============================] - 77s 15s/step …

2
주어진 단어를 이름, 휴대폰 번호, 주소, 이메일, 주, 카운티, 도시 등으로 분류하는 데 사용되는 기계 / 딥 러닝 / nlp 기술
단어 또는 문자열 집합을 스캔하고 기계 학습 또는 딥 러닝을 사용하여 이름, 휴대폰 번호, 주소, 도시, 주, 국가 및 기타 엔티티로 분류 할 수있는 지능형 모델을 생성하려고합니다. 나는 접근법을 찾았지만 불행히도 취할 접근법을 찾지 못했습니다. 나는 끈이 이름인지 도시인지를 예측하기 위해 bag of words 모델과 gloved word embedding을 사용해 보았습니다. …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.