«euclidean» 태그된 질문

유클리드 거리는 유클리드 공간에서 두 점 사이의 '직선'거리에 대한 직관적 인 개념입니다.


6
k- 평균 군집 알고리즘이 유클리드 거리 측정법 만 사용하는 이유는 무엇입니까?
k- 평균 알고리즘이 거리 메트릭으로 코사인 (비 유사) 유사성을 사용하지 않고 유클리드 표준 만 사용할 수있는 효율성 또는 기능성 측면에서 특정 목적이 있습니까? 일반적으로 유클리드 이외의 다른 거리를 고려하거나 사용하는 경우 K- 평균 방법이 준수되고 정확합니까? [@ttnphns 추가. 문제는 두 가지입니다. "(비) 유클리드 거리"는 두 데이터 포인트 사이의 거리 또는 …

2
코사인 유사성이 l2 정규화 된 유클리드 거리와 동일합니까?
동일한 의미, 이는 벡터 u 와 벡터 세트 V 사이의 유사성 순위에 대해 동일한 결과를 생성 할 것 입니다. 거리 측정 (유클리드 거리, 코사인 유사성) 및 정규화 기술 (없음, l1, l2)을 매개 변수로 사용하는 벡터 공간 모델이 있습니다. 내 이해에서, 설정 [코사인, 없음]의 결과는 [유클리드, l2]와 동일하거나 적어도 실제로는 유사해야하지만, …

1
유사도 행렬을 (유클리드) 거리 행렬로 변환
랜덤 포레스트 알고리즘에서 Breiman (저자)은 다음과 같이 유사성 매트릭스를 구성합니다. 모든 학습 예제를 숲의 각 나무 아래로 보냅니다. 두 개의 예제가 동일한 리프에 도달하면 유사성 매트릭스의 해당 요소가 1 씩 증가합니다. 나무 수로 행렬 정규화 그는 말한다 : 케이스 n과 k 사이의 근접성은 행렬 {prox (n, k)}를 형성합니다. 그들의 정의에 …

5
거리 (유클리드)를 유사성 점수로 변환하는 방법
사용하여 스피커 음성을 클러스터링한다는 의미입니다. 발화를 클러스터 된 스피커 데이터와 비교하면 (유클리드 거리 기반) 평균 왜곡이 발생합니다. 이 거리는 범위에있을 수 있습니다 . 이 거리를 유사성 점수 로 변환하고 싶습니다 . 내가 어떻게 이것을 달성 할 수 있는지 안내해주세요.kkk[0,∞][0,∞][0,\infty][ 0 , 1 ][0,1][0,1]

1
Jeffries Matusita의 장점
내가 읽는 일부 논문에 따르면 Jeffries와 Matusita 거리가 일반적으로 사용됩니다. 그러나 아래 공식을 제외하고는 그것에 대한 많은 정보를 찾을 수 없었습니다. JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} 제곱근을 제외하고 유클리드 거리와 유사합니다. E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} JM 거리는 분류 측면에서 유클리드 거리보다 신뢰할 수 있다고 주장됩니다. 왜이 차이가 JM 거리를 향상시키는 지 …

3
어느 거리를 사용해야합니까? 예 : 맨해튼, 유클리드, 브레이 커티스 등
저는 지역 사회 생태학자가 아니지만 요즘에는 지역 사회 생태 데이터를 연구하고 있습니다. 이 거리의 수학을 제외하고 내가 이해할 수 없었던 것은 사용할 각 거리의 기준과 적용 가능한 상황입니다. 예를 들어, 카운트 데이터와 함께 무엇을 사용해야합니까? 두 위치 사이의 경사각을 거리로 변환하는 방법은 무엇입니까? 아니면 두 곳의 기온이나 강우? 각 거리에 …

1
Anova ()와 drop1 ()이 GLMM에 다른 답변을 제공 한 이유는 무엇입니까?
GLMM 형식이 있습니다. lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 를 사용할 때 자동차 패키지 또는에서 사용할 때 drop1(model, test="Chi")와 다른 결과를 얻습니다 . 후자의 두 사람도 같은 대답을합니다.Anova(model, type="III")summary(model) 조작 된 데이터를 사용 하여이 두 가지 방법이 일반적으로 다르지 않다는 것을 알았습니다. …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
내 신경망은 유클리드 거리를 배울 수 없습니다
그래서 나는 신경망을 가르치려고 노력하고 있습니다 (고양이 그림을 분류하지 않고 회귀 응용 프로그램을 위해). 나의 첫 번째 실험은 FIR 필터와 Discrete Fourier Transform ( "전"및 "후"신호에 대한 훈련)을 구현하기 위해 네트워크를 훈련시키는 것이었다. 왜냐하면 그것들은 활성화 기능이없는 단일 계층에 의해 구현 될 수있는 선형 연산이기 때문이다. 둘 다 잘 작동했습니다. …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.