새로운 Adhockeries
최근 몇 년 동안 연결된 이론적 원리에 호소하지 않고 직관적 인 장치를 발명하는 정통 습관이 새로운 문제로 확장되어 처음에는 여러 가지 새로운 과학 분야가 만들어졌습니다. 그러나 그들 모두는 불완전한 정보에 대한 추론에 관심이있다. 그리고 우리는 논리로서의 확률 이론이 그러한 모든 문제를 다루는 일반적인 수단이라는 이론을 확립했다고 믿는다 . 우리는 세 가지 예를 주목합니다.
퍼지 세트는 분명히 베이지안 추론 훈련을받은 모든 사람에게 베이지안 사전 확률에 대한 대략적인 근사치입니다. 그들은 실무자들이 자연에 존재해야하지만 "정의되지 않은"무작위성이라는 관점에서 확률을 계속 생각하기 때문에 만들어졌다. 확률 이론은 이러한 문제에 적용 할 수 없다고 결론지었습니다. 불완전한 정보를 지정하는 일반적인 방법으로 확률을 인식하자마자 퍼지 세트를 도입하는 이유는 사라집니다.
마찬가지로 인공 지능 (AI)의 대부분은 오래된 정통 통계와 마찬가지로 불완전한 정보를 근거로 추론하기위한 직관적 인 장치의 모음으로 베이지안 방법에 근사하고 일부 제한된 등급의 문제에서 사용할 수 있습니다. 그러나 우리가 그것을 그 계급 밖의 문제에 적용하려고 할 때 터무니없는 결론을 내린다. 다시 한 번, 실무자들은 정보가 불완전한 정보가 아니라 물리적 인 "무작위"를 나타내는 것으로 계속 생각하기 때문에이 문제에 갇히게됩니다. 베이지안 추론에서 이러한 모든 결과는 제한된 등급의 문제에 제한없이 자동으로 (사소하게) 포함됩니다.
위대한 새로운 발전은 신경망 (Neural Nets)으로, 인간의 두뇌처럼 적응할 수있는 새롭고 훌륭한 특성을 가진 알고리즘 시스템을 의미합니다. 따라서 과거의 오류를 통해 배우고 자동으로 수정할 수 있습니다. . 실제로 우리는 신경망이 많은 응용 분야에서 실제로 매우 유용하다는 사실에 놀라지 않습니다. 퍼지 세트 또는 AI보다 더 그렇습니다. 그러나 현재 신경망에는 두 가지 실질적인 단점이 있습니다. (a) 그들은 현재 입력과 과거 훈련 정보에 의해 결정된 결과를 산출한다. 이 결과는 실제로 추정치입니다현재의 모든 정보를 바탕으로 올바른 대응에 대한 정확성을 나타내지는 못하므로 목표에 얼마나 가까운 지 (즉, 더 많은 훈련이 필요한지) 알려주지 않습니다. (b) 비선형 반응이 요구 될 때, 내부에 저장된 표준 "시그 모이 드"비선형 함수에 호소하며, 다양한 증폭과 선형 혼합으로 어느 정도 참 비선형 함수에 근접하도록 만들 수 있습니다. (참고 : 강조 광산.)
그러나 우리는 (1) 적응적인 절차는 불완전한 정보를 고려하는 수단이다. (2) 베이 즈 정리는 모든 적응 절차의 어머니이다. 새로운 정보를 고려하기 위해 지식의 상태를 업데이트 하는 일반적인 규칙; (3) 이러한 문제들이 베이지안 용어로 공식화 될 때, 단일 계산으로 자동으로 최상의 추정치와 정확도가 산출됩니다. (4) 비선형 성이 요구되는 경우, 베이 즈 정리는 다른 임시 장치에 의해 근사치를 구성하는 대신 문제에 의해 요구되는 정확한 비선형 함수를 자동으로 생성합니다 .
다시 말해, 우리는 이것이 전혀 새로운 분야가 아니라고 주장합니다. 거짓 시작 만. 표준 베이지안 처방으로 이러한 모든 문제를 공식화하면 개선 된 형태로 모든 유용한 결과가 자동으로 나타납니다. 사람들이 이것을 이해하는데 어려움을 겪고있는 것은 추상 수학과 현실 세계 사이의 관계를 개념화하는 데 실패한 예이다. 우리는 확률이 현실을 묘사하지 않고 현실에 대한 우리의 정보만을 묘사한다는 것을 인식하자마자, 게이트는 그 정보로부터 추론의 문제에 대한 최적의 해결책을 열 수 있습니다.