임의의 DFA로 단어 분리


15

DFA에 대한 흥미로운 공개 문제 중 하나에 나와 있습니다. DFA에 대해 공개 된 문제가 있습니까? 길이가 두 개의 문자열을 구분하는 데 필요한 DFA의 크기입니다 . 임의의 DFA가 두 개의 주어진 (비 랜덤) 문자열을 분리하는 기능에 대한 결과가 있는지 궁금합니다.

충분히 많은 상태의 무작위 DFA는 문자열을 확률이 높은 것으로 구분합니다. 특히 ,VΣ , 영형() 상태 의 임의의 DFA 는 V 다른 첫 번째 위치에 도달하면 동일한 상태를 다시 방문 할 가능성이 없으므로 분리 V합니다.

더 잘할 수 있을까요? 이상적으로는, 작은 무엇 성이있는 임의의 DFA와 F ( N ) 의 길이 상태 분리형 문자열 N 양의 확률 (혹은 확률 1 / 2 )? 간단한 검색은 무작위 DFA의 속성에 대한 많은 결과를 나타내지 않았습니다. 내가 찾을 수있는 것은 http://arxiv.org/abs/1311.6830 이었습니다 .에프()에프()1/2


긍정적 인 확률은 개방 된 문제를 다시 언급 한 점에서 특히 유용한 조건이 아닙니다. 높은 확률은 여전히 ​​흥미로울 수 있습니다.
Geoffrey Irving

1
"분리 된"은 무엇을 의미합니까? 하나를 받아들이고 다른 하나를 거부합니까? 그렇다면 상태가 충분 하다는 것이 명백 합니까? O(n)
usul

그렇습니다. 분리 란 정확히 하나를 받아들입니다. 그리고 당신이 옳습니다 : 가장 사소한 분리 주장에는 실제로 상태 가 필요합니다 ( 위에 쓴 것은 잘못되었습니다). O(n2)
Geoffrey Irving

1
단어의 차이에 따라 경계가 달라질 것으로 기대하지 않습니까? 한 글자로 다른 단어는 무작위로 구별하기가 더 어려워 보입니다. 한 번의 전환에서 구별해야하기 때문에 매우 다른 단어가 더 쉬울 것입니다. [일반적으로 가장 긴 접두사를 잊어 버릴 수 있습니다 (그로부터 임의의 상태에 도달 함). 그런 다음, 다른 글자들이 당신을 같은 주 또는 다른 주들로 보냅니다; 상태가 다른 경우 재 동기화 및 동기화 상태를 유지해야합니다 (단어에 따라 다시 시작) ...]
a3nm

그렇습니다. 열린 문제와 마찬가지로, 나는 차별하기 가장 어려운 단어에 관심이 있습니다. 소수의 장소에서만 다른 단어는 상태로 이미 분리 될 수 있으므로 어려운 경우 는 아닙니다 . O(logn)
Geoffrey Irving

답변:


2

[편집 :이 답변이 효과가 없습니다. 의견을 참조하십시오.]

이것은 단지 비공식적 인 아이디어이며 도움이되는지 모르겠지만 의견으로 제시하기에는 너무 깁니다. 또한 임의의 DFA에 익숙하지 않으므로 확률에 대해 추론해야 할 방법에 대한 잘못된 직관이있을 수 있지만 이것이 완전히 가치가없는 것은 아닙니다.

나는 당신의 한계가 v의 차이 에 달려 있다고 가정합니다 . 그렇지 않은 경우, 그것은 최악의 경우 자신의 첫 번째 문자 만 다른 문자열이라는 것을 나에게 분명한 것 같다 (세트에서 서로 다른 문자열 X 위치는 세트에서 서로 다른 문자열보다 떨어져 말했다되는 더 많은 기회가 Y X 위치를 , 가능한 한 빨리 차이를두면 재 동기화 할 수 있습니다).V엑스와이엑스

또한 단어가 구별 될 가능성, 즉 단어가 다른 상태에 도달 할 가능성을 살펴 보겠습니다. 그런 다음 임의의 DFA가 최종 상태를 할당하는 방식에 따라 수락 또는 거부되도록 조정해야한다고 생각합니다. 각 상태의 확률이 최종 확률의 1/2 인 경우, 스트링이 동일한 상태에서 끝나는 경우에는 구별되지 않으며, 다른 상태에서 끝나는 경우에는 1/2의 확률이 있습니다.

이제 uv 에서 얻은 단어 를 다음과 같이 고려할 것입니다 . u i = v i 이면 w i = 1 이고 , 그렇지 않으면 w i = 0 입니다. 나는 wuv 에 관해 고려해야 할 유일한 흥미로운 것임이 분명하다고 생각합니다 .V나는=1나는=V나는나는=0V

이제, uv 의 길이 i 의 접두사를 읽은 후 가 같은 상태에있을 확률을 정의 하고, q ( i ) = 1 - p ( i ) 가 아닌 확률을 정의하십시오.(나는)나는V(나는)=1(나는)

w i + 11 이 있다고 생각 합니다. 직관적으로, 우리가 읽은 후 같은 상태에있다 내가 + 1 개 문자를 하나 우리가 읽은 후 같은 상태에있을 때 나는를 우리가 두 개의 서로 다른 (임의) 상태에있을 때, 또는 우리는 무작위 상태로이 전환을 그려, 그들은 일어난 같은 것입니다. 마찬가지로 p ( i + 1 ) = 1p(i+1)=p(i)+q(i)/nwi+11i+1i나는 + 1하는 것입니다 0 : 두 개의 무작위 상태, 당신은에서 시작 상관없이 받고있다.p(i+1)=1/nwi+10

이것으로부터 v를 읽은 후 같은 상태에있을 확률을 계산할 수 있다고 생각합니다 .uv


불행하게도, uv 의 유일한 흥미로운 속성 이라는 것은 분명하지 않습니다. 이를 확인하는 가장 쉬운 방법은 사소한 w0 n 과 구별 할 확률이 0이 아니라는 것입니다 . 실제로 n에 관계없이 두 개의 상태만으로 충분합니다 . 그러나, arxiv.org/pdf/1103.4513.pdf 에서 논의 된 바와 같이 , 길이 n st no o ( log n ) 상태 의 단어 u , v 는 DFA가 그들을 구별 할 수있다. 이것은 p ( i )에 대한 공식과 모순됩니다wuvw0nnu,vno(logn)p(i).
Geoffrey Irving

1
명확히하기 위해 DFA 전환이 문자열 인덱스의 임의 함수 인 경우 수식이 정확합니다. 그것들은 지수와 무관하기 때문에 확률은 다소 복잡한 방식으로 상관됩니다.
Geoffrey Irving

나는 당신의 반례를 얻지 못할 것을 두려워합니다. 0 nw 0 n 을 구별하는 두 가지 상태를 가진 prba 가 있습니다 . 그리고 o ( log n ) 상태 와 구별 할 수없는 길이 n의 단어가있을 수 있습니다 . 하지만 어떻게 내 주장을 반박 않는 w를 유일하게 중요한 것은, 또는 내 공식 페이지 ( I )>00nw0nno(logn)wp(i)? 상관 관계에 관해서는, 당신이 언급 한 종류의 잡기가있을 수 있지만, 왜 그것이 정확히 실패하는지 이해하지 못합니다. 동일한 상태를 두 번 통과하면 상관 관계가 있지만 평균적으로 특정 방향으로 영향을 줄 것이라고 생각할만한 이유가 있습니까?
a3nm

경우 , UV는 양의 확률로 구별된다. 그러나 충분히 큰 n 및 적은 수의 상태에 대해 일부 uv에 대해 p ( n ) = 1 임을 알 수 있습니다. 귀하의 공식은 p ( i ) < 1 이면 p ( i + 1 ) = p ( i ) + ( 1 - pp(n)<1uvnp(n)=1uvp(i)<1 이면 수식에서 특정 u v 를 구별 할 수 없다는사실을 포착하지 못합니다. p(i+1)=p(i)+(1p(i))/n=p(i)(11/n)+1/n<1uv
Geoffrey Irving

아 ... 맞아요 작은 DFA가 두 단어 를 구분할 수 없는 경우 임의의 DFA가 두 단어 를 구분할 수 없습니다. 실제로 내 접근 방식에 문제가 있습니다. 이러한 상관 관계 때문에 는 결국 0으로 떨어질 것입니다. 답변이 잘못되어 죄송합니다. q(i)
a3nm
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.