«convolution» 태그된 질문

컨볼 루션은 두 함수 및 에 대한 함수 값 연산입니다 . . 종종 독립 확률 변수의 합의 밀도를 얻는 데 사용됩니다. 이 태그는 deconvolution의 역 연산에도 사용해야합니다. 컨볼 루션 신경망에는이 태그를 사용하지 마십시오. fgf(τ)g(tτ)dτ

6
신경망에서 1x1 컨볼 루션이란 무엇입니까?
현재 Udacity Deep Learning Tutorial을하고 있습니다. 레슨 3에서는 1x1 컨벌루션에 대해 이야기합니다. 이 1x1 컨볼 루션은 Google Inception Module에서 사용됩니다. 1x1 컨볼 루션이 무엇인지 이해하는 데 문제가 있습니다. 나는 또한 Yann Lecun 의이 게시물 을 보았습니다. 누군가 나에게 친절하게 설명해 주시겠습니까?

6
CNN에서 로컬 응답 정규화의 중요성
Imagenet 및 기타 대형 CNN이 로컬 응답 정규화 계층을 사용한다는 것을 알았습니다. 그러나 나는 그들에 대한 많은 정보를 찾을 수 없습니다. 그것들은 얼마나 중요하며 언제 사용해야합니까? 에서 http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "로컬 응답 정규화 계층은 로컬 입력 영역을 정규화하여 일종의"측면 억제 "를 수행합니다. ACROSS_CHANNELS 모드에서 로컬 영역은 근처 채널을 통해 확장되지만 공간 …

4
컴퓨터 비전과 컨볼 루션 신경망에서 번역 불일치 란 무엇입니까?
컴퓨터 비전에 대한 배경 지식이 없지만 이미지 처리 및 회선 신경망 관련 기사 및 논문을 읽을 때 끊임없이 translation invariance, 또는 이라는 용어에 직면합니다 translation invariant. 또는 컨볼 루션 작업이 제공하는 많은 것을 읽었 translation invariance습니까? !! 이것은 무엇을 의미 하는가? 나는 우리가 어떤 모양으로 이미지를 바꾸더라도 이미지의 실제 개념은 …

10
두 랜덤 변수의 합이 컨볼 루션 인 이유는 무엇입니까?
오랫동안 두 랜덤 변수의 "합계"가 컨볼 루션 인 이유를 이해하지 못한 반면 와 의 혼합 밀도 함수 합 은f(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); 그들의 컨볼 루션이 아닌 산술 합. 정확한 문구 "두 개의 임의 변수의 합"은 Google에 146,000 번 표시되며 다음과 같이 타원형입니다. 하나의 값을 산출하기 위해 RV를 고려한다면, 그 하나의 값을 다른 RV …

2
컨볼 루션 신경망 : 중앙 뉴런이 출력에서 ​​과도하게 표현되지 않습니까?
[이 질문은 또한 스택 오버플로 에서 제기되었습니다 ] 짧은 질문 나는 회선 신경 네트워크를 연구하고 있는데,이 네트워크가 모든 입력 뉴런 (픽셀 / 파라미터)을 동등하게 취급하지는 않는다고 생각합니다. 일부 입력 이미지에 컨볼 루션을 적용하는 딥 네트워크 (다중 레이어)가 있다고 가정합니다. 이미지의 "중간"에있는 뉴런은 더 깊은 층 뉴런에 대한 많은 고유 한 …

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
"커널 밀도 추정"은 무엇의 컨볼 루션입니까?
커널 밀도 추정에 대해 더 잘 이해하려고합니다. Wikipedia의 정의 사용 : https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition 에프h^( x ) = 1엔∑엔나는 = 1케이h( x − x나는)= 1N 시간∑엔나는 = 1케이( x − x나는h)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) 하자 걸릴 제공하는 직사각형의 함수로 경우에 사이 및 및 …

6
컨볼 루션 레이어 : 패딩 또는 패딩?
AlexNet 아키텍처는 그림과 같이 제로 패딩을 사용합니다. 그러나이 패딩이 도입 된 이유는 논문에 설명되어 있지 않습니다. Standford CS 231n 과정에서는 공간 크기를 보존하기 위해 패딩을 사용합니다. 이것이 패딩이 필요한 유일한 이유인지 궁금합니다. 공간 크기를 유지할 필요가 없다면 패딩을 제거 할 수 있습니까? 더 깊이 들어가면 공간 크기가 매우 빠르게 줄어 …

2
중앙 한계 정리의 역동적 인 시스템 관점?
(원래 MSE에 게시 됨 ) 나는 고전적인 중앙 한계 정리에 대한 많은 휴리스틱 토론이 정규 분포 (또는 안정적인 분포)를 확률 밀도 공간의 "유인 자"라고 말합니다. 예를 들어, Wikipedia의 치료 맨 위에서 다음 문장을 고려하십시오 . 보다 일반적인 사용법에서 중심 한계 정리는 확률 이론의 약한 수렴 이론 세트 중 하나입니다. 그들은 …

3
Convolutional Neural Network에서 컨볼 루션 단계는 무엇을합니까?
컴퓨터 비전에서의 응용으로 인해 CNN (Convolutional Neural Network)을 연구하고 있습니다. 저는 표준 피드 포워드 신경망에 이미 익숙하므로 일부 사람들이 CNN을 이해하는 데 도움이 될 수 있기를 바랍니다. CNN에 대한 생각은 다음과 같습니다. 기존 피드 포워드 NN에는 각 요소가 "입력 레이어"에서 NN에 입력 한 기능 벡터로 구성된 학습 데이터가 있으므로 이미지 …

2
편의를 넘어 신경망에서 컨볼 루션에 대한 수학적 이유가 있습니까?
컨볼 루션 신경망 (CNN) 에서 컨볼 루션을 진행하기 전에 각 단계 의 가중치 매트릭스 가 행과 열을 뒤집어 커널 매트릭스를 얻습니다. 이것은 휴고 라로 셸에 의해 비디오 시리즈에 설명되어 여기 : 숨겨진 맵을 계산하는 것은 커널 행렬 [...]을 사용하여 이전 레이어의 채널과 이산 컨볼 루션을 수행하는 것과 일치하며, 커널은 숨겨진 …

2
제곱 정규 변수와 카이 제곱 변수의 컨벌루션 분포?
최근 데이터를 분석하는 중에 다음과 같은 문제가 발생했습니다. 랜덤 변수 X가 정규 분포를 따르고 Y가 χ2nχn2\chi^2_n 분포 (n dof 포함)를 따르는 경우 Z=X2+Y2Z=X2+Y2Z = X^2 + Y^2 는 어떻게 분포됩니까? 지금까지 나는 의 pdf를 생각해 냈습니다 . ψ 2 n ( x )Y2Y2Y^2ψ2n(x)====∂F(x−−√)∂x(∫x√0tn/2−1⋅e−t/22n/2Γ(n/2)dt)′x12n/2Γ(n/2)⋅(x−−√)n/2−1⋅e−x√/2⋅(x−−√)′x12n/2−1Γ(n/2)⋅xn/4−1⋅e−x√/2ψn2(x)=∂F(x)∂x=(∫0xtn/2−1⋅e−t/22n/2Γ(n/2)dt)x′=12n/2Γ(n/2)⋅(x)n/2−1⋅e−x/2⋅(x)x′=12n/2−1Γ(n/2)⋅xn/4−1⋅e−x/2\begin{eqnarray} \psi^2_n(x) &=& \frac{\partial F(\sqrt{x})}{\partial x} \\ &=& …

3
컨볼 루션 신경망은 행렬 곱셈 대신 컨볼 루션을 정확히 어떻게 사용합니까?
딥 러닝 에 관한 Yoshua Bengio의 책을 읽고 있었고 224 페이지에 나와 있습니다. 컨볼 루션 네트워크는 레이어 중 하나 이상에서 일반 행렬 곱셈 대신 컨볼 루션을 사용하는 신경망입니다. 그러나 수학적으로 정확한 의미에서 "콘볼 루션으로 행렬 곱셈을 대체하는"방법을 100 % 확신하지 못했습니다. 내가 정말로 관심있는 것은 1D의 입력 벡터 ( 와 …

4
독립 로그 정규 확률 변수의 합이 로그 정규?
관측치 수가 증가함에 따라 두 개 이상의 로그 정규 확률 변수의 합이 로그 정규 분포에 접근하는 이유를 이해하려고합니다. 온라인에서 검색했는데 이에 관한 결과를 찾지 못했습니다. 분명히 와 가 독립적 인 로그 정규 변수라면 지수와 가우스 랜덤 변수의 속성에 의해 도 로그 정규입니다. 그러나 도 로그 정규 라고 제안 할 이유가 …

2
컨볼 루션 레이어의 여러 필터가 훈련 중에 동일한 매개 변수를 배우지 않습니까?
내가 배운 내용을 바탕으로 CNN의 Conv Layer에서 여러 필터를 사용하여 다양한 기능 탐지기를 학습합니다. 그러나 이러한 필터는 비슷하게 적용되므로 (즉, 입력 영역에 슬라이드 및 곱하기) 훈련 중에 동일한 매개 변수를 배우지 않습니까? 따라서 여러 필터를 사용하는 것이 중복됩니까?

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.