신경망이 소수를 감지 할 수 있습니까?


21

나는 소수를 찾을 수있는 효율적인 방법을 찾고 있지 않습니다 (물론 해결 된 문제입니다 ). 이것은 "만약의"질문에 대한 것입니다.

이론적으로 : 주어진 숫자 n이 합성인지 소수인지 예측하기 위해 신경망을 훈련시킬 수 있습니까? 그러한 네트워크는 어떻게 마련 될 것입니까?


1
한 번 봐 가지고 cs.indstate.edu/~legri/prime06.pdf
VividD

2
소수가 패턴을 따르고 누군가가 분류 경계를 정의하기에 충분한 숨겨진 노드로 신경 네트워크를 훈련시키는 경우 작동한다고 가정합니다. 그러나 우리는 분류가 존재하는지 알 수 없으며, 분류가 존재하더라도 신경망이 실제로 올바른 패턴을 찾았 음을 증명하기 위해 경계가 무엇인지 증명해야합니다.
Quintumnia

답변:


11

인공 네트워크를 통한 소수 테스트의 초기 성공은 소수 숫자 테스트에 대한 구성 신경망 솔루션 , László Egri, Thomas R. Shultz, 2006에 제시되어 있습니다. KBCC (Knowledge-Based Cascade-correlation) 네트워크 접근 방식은 가장 가능성이 높았지만,이 접근 방식의 실용성은 일반적으로 가장 중요도가 낮은 비트를 확인하고 검색을 즉시 반으로 줄인 다음 검색하는 다른 주요 탐지 알고리즘에 의해 실현됩니다. 최대 f l o o r ( 까지의 다른 이론 및 휴리스틱 기반. 그러나이 작업은KBCC의 지식 기반 학습, Shultz et al. 알. 2006 년floor(x)

02n1n

  1. 정수 범위의 소수를 간단히 암기하면됩니까?
  2. 소수의 정의를 고려하고 적용하는 법을 배워서 가능합니까?
  3. 알려진 알고리즘을 배우면 가능합니까?
  4. 훈련 중에 독자적인 새로운 알고리즘을 개발함으로써 가능합니까?

정답은 예이며 이미 위의 1에 따라 수행되었지만 소수 감지 방법을 배우지 않고 과적 합하여 수행했습니다. 우리는 인간의 뇌에 2, 3, 4를 달성 할 수있는 신경망이 포함되어 있다는 것을 알고 있습니다. 따라서 인공 네트워크가 최대한 생각할 수있는 수준으로 개발된다면 그 대답은 그렇습니다. 이 답변의 글을 쓰는 시점에서 가능한 범위에서 그것들을 배제 할 수있는 반증 명은 없습니다.

이산 수학의 소수, 암호화에 대한 적용, 특히 암호화에 대한 중요성 때문에 소수에 대해 인공 네트워크를 훈련시키는 작업은 놀라운 일이 아닙니다. 우리는 RSA Cryptosystem의 신경망 접근법의 첫 연구 , Gc Meletius 등의 연구 에서 지능형 디지털 보안 연구 및 개발에서 소수의 디지털 네트워크 감지의 중요성을 식별 할 수 있습니다 . al., 2002 . 우리나라의 안보와 암호화의 관계는이 분야의 현재 연구가 모두 공개되지 않는 이유이기도합니다. 클리어런스와 노출이 가능한 사람들은 분류되지 않은 것에 대해서만 말할 수 있습니다.

민간인에게는 참신 탐지라는 지속적인 연구가 연구의 중요한 방향입니다. Markos Markou 및 Sameer Singh와 같은 사람들 은 신호 처리 측면에서 참신 탐지접근 하고 있으며 인공 네트워크는 본질적으로 멀티 포인트 자체 튜닝 기능이있는 디지털 신호 프로세서라는 것을 이해하는 사람들에게는 자신의 작업이 어떻게 적용되는지 볼 수 있습니다 의문. Markou와 Singh는 "신호 처리, 컴퓨터 비전, 패턴 인식, 데이터 마이닝 및 로봇 공학을 포함하여 참신 탐지가 매우 중요한 응용 프로그램이 많이 있습니다."라고 말합니다.

인지 수학 측면에서 학습 : 서프라이즈 학습 : 이론 및 응용 (논문), 모하마드 자바드 파라 지 (Mohammadjavad Faraji, 2016) 같은 놀라운 수학의 개발은 Ergi와 Shultz가 시작한 것을 더욱 발전시킬 수 있습니다.


1

이론적으로 신경망은 어떤 주어진 기능 ( source )를 .

그러나 숫자로 네트워크를 훈련 시키면 0N 해당 범위 밖의 숫자를 올바르게 분류한다고 보장 할 수 없습니다 ( n > N).

그러한 네트워크는 재귀가 주어진 입력의 분류에 아무것도 추가하지 않기 때문에 일반적인 피드 포워드 네트워크 ( MLP ) 일 것입니다. 레이어 및 노드의 양은 시행 착오를 통해서만 찾을 수 있습니다.


1
범용 정리는 소형 하위 집합의 연속 함수에 적용됩니다. 프라임 / 프라임은 그런 종류의 기능이 아닙니다.
pasaba por aqui

1
@pasabaporaqui :이 경우 프라임 값에서 피크가있는 연속 함수로 프라임 함수를 충분히 근사화 할 수 있습니다. 따라서 NN은 6.93의 주요 확률로 90 %의 확률을 산출 할 수 있습니다. 이는 분명 말도 안되지만 입력과 출력을 분리하면 NN이 비정 수에 대해 예측하는 것에 신경 쓰지 않습니다. 나는이 대답이 기본적으로 맞다고 생각합니다.
Neil Slater

1

저는 Prairie View A & M 대학교의 학부 연구원입니다. 나는 몇 주 동안 NLP 소수를 예측하기 위해 MLPRegressor 모델을 조정하는 데 몇 주를 보냈기 때문에 논평 할 것이라고 생각했습니다. 최근에는 훈련 데이터를 제외한 최초의 1000 개의 외삽 법으로 인해 0.02 % 미만의 오차가 발생하는 매우 낮은 최소값으로 넘어졌습니다. 300000만으로도 약 0.5 % 할인되었습니다. 내 모델은 간단했다 : 10 개의 숨겨진 레이어, 단일 프로세서에서 2 시간 미만 훈련.

나에게 그것은 "n 번째 소수를 생성하는 합리적인 함수가 있는가?"라는 질문을 제기한다. 현재 알고리즘은 극단적으로 n에 대해 계산적으로 매우 과세됩니다. 가장 최근에 발견 된 가장 큰 소수 사이의 시간 간격을 확인하십시오. 그들 중 일부는 몇 년 떨어져 있습니다. 그러한 함수가 존재하면 다항식이 아니라는 것이 입증되었습니다.


AI.SE에 오신 것을 환영합니다! 답변 섹션에는 답변 (댓글이 아닌) 만 허용되므로 질문을 다루는 데 집중할 수 있도록 게시물을 약간 수정했습니다. 당사 사이트에 대한 소개는 둘러보기를 참조하십시오 .
벤 N

안녕 코디, 오래지 않아 하지만 당신이 한 시험에 관해 당신과 대화하고 싶습니다. 당신이 한 일과 당신이 인식 한 것에 대해 기꺼이 대화 하시겠습니까? 이것으로 더 실험 할 가능성이 있는지 확인하고 싶습니다.
momomo

-1

예이 가능하지만, 정수 인수 분해 문제가 있음을 고려 NP-뭔가 문제 BQP 문제 입니다.

이 때문에 P = NP가 아닌 한 고전적인 컴퓨팅 기반의 신경망이 100 % 정확도로 소수를 찾는 것은 불가능합니다.


질문이 설명하는 것처럼 숫자가 소수인지 NP 문제가 아닌지 확인하십시오.
pasaba por aqui
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.