나는 소수를 찾을 수있는 효율적인 방법을 찾고 있지 않습니다 (물론 해결 된 문제입니다 ). 이것은 "만약의"질문에 대한 것입니다.
이론적으로 : 주어진 숫자 n이 합성인지 소수인지 예측하기 위해 신경망을 훈련시킬 수 있습니까? 그러한 네트워크는 어떻게 마련 될 것입니까?
나는 소수를 찾을 수있는 효율적인 방법을 찾고 있지 않습니다 (물론 해결 된 문제입니다 ). 이것은 "만약의"질문에 대한 것입니다.
이론적으로 : 주어진 숫자 n이 합성인지 소수인지 예측하기 위해 신경망을 훈련시킬 수 있습니까? 그러한 네트워크는 어떻게 마련 될 것입니까?
답변:
인공 네트워크를 통한 소수 테스트의 초기 성공은 소수 숫자 테스트에 대한 구성 신경망 솔루션 , László Egri, Thomas R. Shultz, 2006에 제시되어 있습니다. KBCC (Knowledge-Based Cascade-correlation) 네트워크 접근 방식은 가장 가능성이 높았지만,이 접근 방식의 실용성은 일반적으로 가장 중요도가 낮은 비트를 확인하고 검색을 즉시 반으로 줄인 다음 검색하는 다른 주요 탐지 알고리즘에 의해 실현됩니다. 최대 f l o o r ( √ 까지의 다른 이론 및 휴리스틱 기반. 그러나이 작업은KBCC의 지식 기반 학습, Shultz et al. 알. 2006 년
정답은 예이며 이미 위의 1에 따라 수행되었지만 소수 감지 방법을 배우지 않고 과적 합하여 수행했습니다. 우리는 인간의 뇌에 2, 3, 4를 달성 할 수있는 신경망이 포함되어 있다는 것을 알고 있습니다. 따라서 인공 네트워크가 최대한 생각할 수있는 수준으로 개발된다면 그 대답은 그렇습니다. 이 답변의 글을 쓰는 시점에서 가능한 범위에서 그것들을 배제 할 수있는 반증 명은 없습니다.
이산 수학의 소수, 암호화에 대한 적용, 특히 암호화에 대한 중요성 때문에 소수에 대해 인공 네트워크를 훈련시키는 작업은 놀라운 일이 아닙니다. 우리는 RSA Cryptosystem의 신경망 접근법의 첫 연구 , Gc Meletius 등의 연구 에서 지능형 디지털 보안 연구 및 개발에서 소수의 디지털 네트워크 감지의 중요성을 식별 할 수 있습니다 . al., 2002 . 우리나라의 안보와 암호화의 관계는이 분야의 현재 연구가 모두 공개되지 않는 이유이기도합니다. 클리어런스와 노출이 가능한 사람들은 분류되지 않은 것에 대해서만 말할 수 있습니다.
민간인에게는 참신 탐지라는 지속적인 연구가 연구의 중요한 방향입니다. Markos Markou 및 Sameer Singh와 같은 사람들 은 신호 처리 측면에서 참신 탐지 에 접근 하고 있으며 인공 네트워크는 본질적으로 멀티 포인트 자체 튜닝 기능이있는 디지털 신호 프로세서라는 것을 이해하는 사람들에게는 자신의 작업이 어떻게 적용되는지 볼 수 있습니다 의문. Markou와 Singh는 "신호 처리, 컴퓨터 비전, 패턴 인식, 데이터 마이닝 및 로봇 공학을 포함하여 참신 탐지가 매우 중요한 응용 프로그램이 많이 있습니다."라고 말합니다.
인지 수학 측면에서 학습 : 서프라이즈 학습 : 이론 및 응용 (논문), 모하마드 자바드 파라 지 (Mohammadjavad Faraji, 2016) 와 같은 놀라운 수학의 개발은 Ergi와 Shultz가 시작한 것을 더욱 발전시킬 수 있습니다.
이론적으로 신경망은 어떤 주어진 기능 ( source )를 .
그러나 숫자로 네트워크를 훈련 시키면 0
를N
해당 범위 밖의 숫자를 올바르게 분류한다고 보장 할 수 없습니다 ( n > N
).
그러한 네트워크는 재귀가 주어진 입력의 분류에 아무것도 추가하지 않기 때문에 일반적인 피드 포워드 네트워크 ( MLP ) 일 것입니다. 레이어 및 노드의 양은 시행 착오를 통해서만 찾을 수 있습니다.
저는 Prairie View A & M 대학교의 학부 연구원입니다. 나는 몇 주 동안 NLP 소수를 예측하기 위해 MLPRegressor 모델을 조정하는 데 몇 주를 보냈기 때문에 논평 할 것이라고 생각했습니다. 최근에는 훈련 데이터를 제외한 최초의 1000 개의 외삽 법으로 인해 0.02 % 미만의 오차가 발생하는 매우 낮은 최소값으로 넘어졌습니다. 300000만으로도 약 0.5 % 할인되었습니다. 내 모델은 간단했다 : 10 개의 숨겨진 레이어, 단일 프로세서에서 2 시간 미만 훈련.
나에게 그것은 "n 번째 소수를 생성하는 합리적인 함수가 있는가?"라는 질문을 제기한다. 현재 알고리즘은 극단적으로 n에 대해 계산적으로 매우 과세됩니다. 가장 최근에 발견 된 가장 큰 소수 사이의 시간 간격을 확인하십시오. 그들 중 일부는 몇 년 떨어져 있습니다. 그러한 함수가 존재하면 다항식이 아니라는 것이 입증되었습니다.
예이 가능하지만, 정수 인수 분해 문제가 있음을 고려 NP-뭔가 문제 와 BQP 문제 입니다.
이 때문에 P = NP가 아닌 한 고전적인 컴퓨팅 기반의 신경망이 100 % 정확도로 소수를 찾는 것은 불가능합니다.