의사 결정 트리 복잡성과 "진정한"복잡성 사이의 가능한 격차


13

제목은 약간 오해의 소지가 있지만 질문이 다음과 같지 않기를 바랍니다.

Grønlund와 Pettie의 새로운 결과에 따르면 3SUM 에는 의사 결정 트리의 복잡성 만 있습니다.O(n3/2)

의사 결정 트리 복잡도 의 문제에 대한 간단한 예가 있습니까? 그러나 더 자세한 모델에서는 ω ( f ) 의 하한을 인정 합니까?O(f)ω(f)

다시 말해, 3SUM의 결과 가 문제의 복잡성에 대해 n 2 상한 보다 현저히 낮아질 가능성에 대한 관점을 어떻게 바꿔야 하는가?n2


3
일정한 깊이의 이진 결정 트리를 사용하여 요소 구별을 해결할 수 있습니다. ( "모든 요소가 다른가?") 그러나 선형 의사 결정 트리를 사용하여 문제를 해결 하려면 깊이 가 필요합니다 . Ω(nlogn)
Jeffε

8
의사 결정 트리 모델은 정보 이론적 모델입니다. 입력에 대한 충분한 정보를 알게되면이 정보에서 답변이 고유하게 결정됩니다. 이 정보를 바탕으로 답을 결정할 수 있는지 여부는 중요하지 않습니다. 예를 들어 입력이 튜링 머신을 인코딩하는 n 비트 이진 문자열이고이 TM이 중지되는지 여부에 대한 질문은 깊이 n의 의사 결정 트리가 모든 n 비트를 알고 있기 때문에이 문제를 사소하게 해결할 수 있지만 알고리즘으로는 해결할 수 없습니다. 이 문제.
Robin Kothari

어쩌면 나는 대신 '간단한 문제의 예'라고 말했을 것입니다 :).
Suresh Venkat

답변:


16

O(n4logn)


내가 진정으로 PEDANTIC이되고 싶다면 NP-hard가 확고한 하한이 아님을 지적 할 것이다. 그러나 그것은 내가 찾고있는 정신의 좋은 예입니다.
Suresh Venkat

5
예, 그러나 우리는 확고한 하한을 증명하는 방법을 모릅니다.
Jeffε

@ Jɛ ff E이 결과의 멋진 글씨 나 표현에 대해 알고 있습니까? 나는 원본을 따르기가 매우 어렵다는 것을 알았습니다. 일부 정의는 전혀 명확하지 않습니다.
domotorp

1
최소한 기본 정의는 선형 퇴행성 문제에 대한 논문에 설명되어 있습니다 .
Jeffε

4

O(nlog(m+nn))Θ(n+m)m=ω(n)


약간 동의하지 않겠습니다. RAM 모델에서는 반드시 전체 입력을 읽을 필요는 없습니다. 튜링 머신 모델에는 의사 결정 트리 (또는 RAM 머신)로 더 빨리 해결할 수있는 사소한 문제가 많이 있습니다. 또한 원래 질문에 대한 Robin의 의견을 참조하십시오.
domotorp
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.