NP- 경도의 개념은 (적어도) 두 가지가 있습니다. , 카프 감축을 사용하는 일반적인 개념은, 언어한다고 NP의 모든 언어 카프가-감소하는 경우 NP-어렵다 . Karp 축소를 Cook 축소로 변경하면 다른 개념이 나타납니다. Karp-NP-hard 인 모든 언어도 Cook-NP-hard이지만 그 반대 일 가능성이 높습니다. NP가 coNP와 다르다고 가정하고 선호하는 NP 완성 언어 . 그런 다음 의 보수 는 Cook-NP-hard이지만 Karp-NP-hard는 아닙니다.L L LLLLL
이 Cook-NP-hard 인 이유 는 다음과 같습니다 . NP에서 모든 언어 을 사용하십시오. 이후 NP-어렵다하는 polytime 함수가 등은 IFF IFF . 에서 의 Cook 감소 는 취하고 계산하고 인지 확인 하고 컨버스를 출력합니다. MLfx∈Mf(x)∈Lf(x)∉ ¯ L M ¯ L xf(x)f(x)∈ ¯ LL¯¯¯¯MLfx∈Mf(x)∈Lf(x)∉L¯¯¯¯ML¯¯¯¯xf(x)f(x)∈L¯¯¯¯
이 NP-hard가 아닌 이유 (NP가 coNP와 다르다고 가정)는 다음과 같습니다. 이 NP-hard 라고 가정하십시오 . 그런 모든 언어에 대한 CONP에서, polytime 감소가 되도록 IFF 또는 환언하면, IFF . 이 NP에 있기 때문에 이것은 이 NP에 있으므로 coNP NP를 나타냅니다. 이는 NP coNP이므로 NP = coNP 임을 의미합니다 .¯ L Mfx∈ ¯ M f(x)∈ ¯ L x∈Mf(x)∈LLM⊆⊆L¯¯¯¯L¯¯¯¯Mfx∈M¯¯¯¯¯f(x)∈L¯¯¯¯x∈Mf(x)∈LLM⊆⊆
일부 주방 NP-하드 언어의 경우 P에, 다음, P = NP는 : 모든 언어에 대한 순이익에 쿡 감소를 사용하는 의 polytime 알고리즘을 제공하기 위해 . 따라서 이러한 의미에서 Cook-NP가 완성 된 언어는 "NP에서 가장 어렵습니다". 반면에 Cook-NP-hard = Cook-coNP-hard : 의 Cook 감소는 의 Cook 감소로 변환 될 수 있음을 쉽게 알 수 있습니다 . 따라서 Cook 축소를 사용하면 정밀도가 떨어집니다.M L M L ¯ LLMLMLL¯¯¯¯
Cook 감소를 사용하는 데에는 다른 단점이있을 수 있지만 다른 답변자에게 맡길 것입니다.