답변:
두 가지 이유 :
(1) 단지 최소한의 문제 : 다수의 감축에서 NPC가되는 것은 공식적으로 더 강력한 진술이며, 만약 당신이 (Karp처럼 거의 언제나처럼) 더 강한 진술을 얻는다면 왜 그렇게 말하지 않습니까?
(2) 다수의 감축에 대해 이야기하면 더 풍부하고 섬세한 계층이 생깁니다. 예를 들어 튜링 감소에서는 NP 대 co-NP 구별이 사라집니다.
이것은 왜 종종 다중 시간보다는 로그 공간 감소를 사용 하는가와 비슷합니다.
튜링 축소는 이와 관련하여 여러 매핑 매핑보다 강력합니다. 튜링 축소를 사용하면 언어를 보완 언어로 매핑 할 수 있습니다. 결과적으로 NP와 coNP의 차이를 모호하게 만들 수 있습니다. Cook의 원래 논문에서 그는이 차이점을 보지 않았지만 (iirc Cook은 실제로 CNF 대신 DNF 공식을 사용했습니다), 이것이 중요한 분리 였음을 매우 분명하게 알았으며, 한 번의 축소로이 문제를 쉽게 처리 할 수있었습니다. .
AS의 다른 각도 / 답변에서 약간 벗어나기 위해 이것은 TCS의 국경에서 Cook ( "Turing") 감소가 Karp-Levin ( "many-one") 감소와 다른지에 대한 공개 질문입니다 (또한 여기 ). 복잡한 클래스 분리에 대한 공개 질문 (주요 키?)과 동등한 가능성이 있습니다. 이 라인을 따라 새로운 결과가 있습니다
최악의 케이스 경도 가설 하에서 Karp-Levin 완성도에서 Cook 완성도 분리 / Debasis Mandal, A. Pavan, Rajeswari Venugopalan (ECCC TR14-126)
우리는 최악의 경도 가설 하에서 NP에 대해서는 튜링이 완료되었지만 NP에 대해서는 완전하지 않은 언어가 있음을 보여줍니다 .
일반적으로 Many-one (Karp) 축소는 한 번의 호출을 수행하는 제한된 축소 형식이므로 주요 작업은 입력을 다른 인코딩으로 변환하는 것이므로 설계하기가 더 쉽습니다. 튜링 감소에는 복잡한 논리가 포함될 수 있습니다. 튜링 감소 하에서 NP에 대해 완전하지만 많은 수의 감소하에 있지 않은 세트가 존재한다는 것은 P! = NP를 의미한다.
예를 들어, 쿡 감소에서 NP에 대한 불만족은 완료되었지만 Karp 감소에서 NP에 대해서는 완전하지 않은 것으로 알려져 있습니다. 따라서 SAT에서 UNSAT 로의 카르 프 감소가 없음을 증명하면 (즉, UNSAT에서 SAT로), NP! = CoNP 및 P! = NP임을 증명할 수 있습니다.