«deep-learning» 태그된 질문

딥 러닝은 "딥"(여러 레이어로 구성됨) 인 특수 신경망 아키텍처를 사용하여 복잡한 기능을 학습하는 것을 목표로하는 머신 러닝 영역입니다. 이 태그는 딥 러닝 아키텍처 구현에 대한 질문에 사용되어야합니다. 일반적인 기계 학습 질문에는 "기계 학습"태그가 지정되어야합니다. 관련 소프트웨어 라이브러리에 대한 태그 (예 : "keras", "tensorflow", "pytorch", "fast.ai"등)를 포함하면 도움이됩니다.


3
Keras LSTM 이해
나는 LSTM에 대한 나의 이해를 조정하려고 노력하고 있으며 Keras에서 구현 한 Christopher Olah 의이 게시물 에서 지적했습니다 . Keras 튜토리얼을 위해 Jason Brownlee이 작성한 블로그를 따르고 있습니다. 내가 주로 혼동하는 것은 데이터 계열을 [samples, time steps, features]및 스테이트 풀 LSTM 아래에 붙여 넣은 코드를 참조하여 위의 두 가지 질문에 집중하십시오. …

15
tensorflow의 tf.nn.max_pool에서 'SAME'과 'VALID'패딩의 차이점은 무엇입니까?
'SAME'과의 '유효'패딩의 차이 무엇입니까 tf.nn.max_pool의는 tensorflow? 내 의견으로는, 'VALID'는 우리가 최대 풀을 할 때 가장자리 외부에 패딩이 없다는 것을 의미합니다. 딥 러닝을위한 컨볼 루션 산술 가이드 에 따르면 풀 연산자에는 패딩이 없을 것입니다 tensorflow. 그러나 max pool의 'SAME'패딩은 tensorflow무엇입니까?

2
Keras 입력 설명 : input_shape, units, batch_size, dim 등
어떤 Keras 층 (위해 Layer클래스), 캔 누군가의 차이점을 이해하는 방법을 설명합니다 input_shape, units, dim, 등? 예를 들어 의사는 units레이어의 출력 모양을 지정 한다고 말합니다 . 아래 신경망의 이미지 hidden layer1에는 4 단위가 있습니다. 이것이 객체 의 units속성으로 직접 변환됩니까 Layer? 아니면 unitsKeras에서 숨겨진 레이어의 모든 가중치의 모양에 단위 수를 곱한 …



5
PyTorch에서 훈련 된 모델을 저장하는 가장 좋은 방법은?
PyTorch에서 훈련 된 모델을 저장하는 다른 방법을 찾고있었습니다. 지금까지 두 가지 대안을 찾았습니다. torch.save () 는 모델을 저장하고 torch.load () 는 모델을 저장합니다 . 훈련 된 모델을 저장하려면 model.state_dict () , 저장된 모델을로드하려면 model.load_state_dict () 접근법 1보다 접근법 2가 권장되는 이 토론을 보았습니다 . 내 질문은 왜 두 번째 접근 …

11
binary_crossentropy와 categorical_crossentropy가 동일한 문제에 대해 다른 성능을 제공하는 이유는 무엇입니까?
주제별로 텍스트를 분류하도록 CNN을 훈련하려고합니다. 이진 교차 엔트로피를 사용하면 ~ 80 % 정확도를 얻을 수 있으며 범주 형 교차 엔트로피를 사용하면 ~ 50 % 정확도를 얻을 수 있습니다. 왜 그런지 이해할 수 없습니다. 그것은 다중 클래스 문제입니다. 즉, 범주 교차 엔트로피를 사용해야하며 이진 교차 엔트로피 결과가 의미가 없다는 것을 의미하지 …

8
tf.nn.embedding_lookup 함수는 무엇을합니까?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) 이 기능의 의무를 이해할 수 없습니다. 조회 테이블과 같은가요? 각 id (ids)에 해당하는 매개 변수를 반환하는 방법은 무엇입니까? 예를 들어 skip-gram모델에서을 사용 tf.nn.embedding_lookup(embeddings, train_inputs)하면 각각 train_input에 해당하는 임베딩을 찾습니다.

10
Keras, 각 레이어의 출력을 얻는 방법?
CNN을 사용하여 이진 분류 모델을 훈련했으며 여기에 내 코드가 있습니다. model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(2)) # define …

12
역 전파 신경망에서 비선형 활성화 함수를 사용해야하는 이유는 무엇입니까?
신경망에서 몇 가지 내용을 읽었으며 단일 계층 신경망의 일반적인 원리를 이해합니다. 추가 레이어의 필요성을 이해하지만 왜 비선형 활성화 함수가 사용됩니까? 이 질문은 다음과 같습니다 : 역 전파에 사용되는 활성화 함수의 파생물은 무엇입니까?




2
Keras의 다 대일 및 다 대다 LSTM 예제
LSTM과 Keras를 사용하여 구축하는 방법을 이해하려고합니다. RNN을 실행하는 데 주로 4 가지 모드가 있다는 것을 알아 냈습니다 (사진에서 올바른 4 가지 모드). 이미지 출처 : Andrej Karpathy 이제 Keras에서 각각에 대한 최소한의 코드 조각이 어떻게 생겼는지 궁금합니다. 그래서 뭔가 model = Sequential() model.add(LSTM(128, input_shape=(timesteps, data_dim))) model.add(Dense(1)) 4 가지 작업 각각에 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.