신경 네트워크 문헌에서 종종 "tensor"라는 단어가 있습니다.
벡터와 다른가요? 그리고 매트릭스에서? 정의를 명확히하는 구체적인 예가 있습니까?
나는 그 정의에 대해 약간 혼란 스럽다. Wikipedia는 도움이되지 않으며 때로는 정의가 사용 된 특정 기계 학습 환경 (TensorFlow, Caffee, Theano)에 달려 있다는 인상을 받았습니다.
신경 네트워크 문헌에서 종종 "tensor"라는 단어가 있습니다.
벡터와 다른가요? 그리고 매트릭스에서? 정의를 명확히하는 구체적인 예가 있습니까?
나는 그 정의에 대해 약간 혼란 스럽다. Wikipedia는 도움이되지 않으며 때로는 정의가 사용 된 특정 기계 학습 환경 (TensorFlow, Caffee, Theano)에 달려 있다는 인상을 받았습니다.
답변:
데이터 분석을 위해 배열을 다차원으로 간주 할 수 있습니다. 따라서 여기에는 스칼라, 벡터, 행렬 및 모든 고차 배열이 포함됩니다.
정확한 수학적 정의는 더 복잡합니다. 기본적으로 아이디어는 텐서가 다중 선형 함수를 선형 함수로 변환한다는 것입니다. (1) 또는 (2)를 참조하십시오 . (다 선형 함수는 각 구성 요소에서 선형 인 함수이며, 예를 들어 열 벡터의 함수로 결정되는 결정 요소입니다.)
이 수학적 속성 정의 텐서의 한 결과는 텐서가 야 코비안과 관련하여 멋지게 변환한다는 것입니다. 야곱은 한 좌표계에서 다른 좌표계로의 변환을 인코딩합니다. 이것이 물리학에서 종종 텐서의 정의를 "좌표 변경으로 특정 방식으로 변형되는 객체"로 보는 이유입니다. 참조 이 비디오 예를 들어, 또는 이 하나 .
우리가 충분히 "좋은"물체 (우리가 존재하고 명확하게 정의하고 싶은 모든 파생물)를 다루고 있다면, 텐서에 대한 이러한 모든 사고 방식은 본질적으로 동일합니다. 내가 언급 한 텐서 (다차원 배열)를 생각하는 첫 번째 방법은 공변량 및 반 변형 텐서의 구별을 무시한다는 점에 유의하십시오. (차이는 벡터 공간의 기본, 즉 행과 열 벡터 사이의 기본 변경에 따라 계수가 어떻게 변하는 지에 관한 차이점입니다.) 이러한 다른 StackExchange 질문을 참조하십시오. (1) (2) (3) (4)
신경망에 대한 텐서의 응용 (예 : 이스라엘의 Technion)을 연구하는 연구원들이 사용하는 책에는 Wolfgang Hackbusch의 Tensor Spaces and Numerical Calculus가 있습니다. 나중의 장들 중 일부는 고급 수학을 사용하는 것 같지만 아직 읽지 않았습니다.