n, V_n의 정수로 구성된 벡터 표현이 있다고 가정 해보십시오.
이 벡터는 기계 학습 알고리즘에 대한 입력입니다.
첫 번째 질문 : 어떤 유형의 표현에 대해 신경망 또는 다른 벡터 대 비트 ML 매핑을 사용하여 n의 원시성 / 복합성을 배울 수 있습니다. 이것은 순전히 이론적입니다. 신경망의 크기는 제한이 없습니다.
다음과 같이 우선 순위 테스트와 관련이있는 표현은 무시하십시오. n으로 구분 된 n 개의 요인 목록 또는 Miller Rabin과 같은 복합성 감시의 존재. 대신 다른 근사법의 표현이나 (다변량) 다항식의 계수 벡터로서의 표현에 초점을 맞추겠습니다. 또는 다른 이국적인 것들도 포지셔닝됩니다.
두 번째 질문 : 표현 벡터의 세부 사항에 관계없이 ML 알고리즘의 어떤 유형이 이것을 학습하는 것이 불가능할까요? 다시, 위에서 언급 한 예에 대한 '사소한 금지'표현을 생략합시다.
기계 학습 알고리즘의 출력은 단일 비트, 0은 소수, 1은 복합입니다.
이 질문의 제목은 질문 1에 대한 합의가 '알 수 없음'이고 질문 2에 대한 합의가 '아마도 대부분의 ML 알고리즘'이라는 나의 평가를 반영합니다. 나는 이것보다 더 이상 몰라서 이것을 요구하고 있으며 누군가 누군가가 길을 가리킬 수 있기를 바랍니다.
이 질문에 대한 주요 동기는 다음과 같다 : 특정 크기의 신경망에서 포착 될 수있는 소수 세트의 구조에 대한 '정보 이론적'한계가 있는가? 이런 종류의 용어에 대해 전문가가 아니기 때문에이 아이디어를 몇 번 바꿔서 개념에 대한 Monte-Carlo 근사값을 얻었는지 확인해 보겠습니다. 소수 집합의 알고리즘 복잡도는 무엇입니까? 소수가 재귀 적으로 열거 가능한 Diophantine이라는 사실 (및 특정 큰 디오 판틴 방정식을 만족시킬 수 있음)을 위에서 설명한 입력 및 출력으로 신경 네트워크에서 동일한 구조를 캡처하는 데 사용할 수 있습니까 ?