물어:
- 저자가 제안한대로 이것이 실제로 실현 가능합니까? 이 논문에 따르면 결과는 매우 효율적이며 항상 데이터를 더 작은 크기로 압축합니다. 사전 크기가 엄청 크지 않습니까?
물론입니다. 손으로 고른 예 ( "라지 도그보다 빠른 은색 폭스 점프")에도 사전에는 텍스트의 모든 4 바이트 하위 문자열이 포함되어 있기 때문에 압축을 달성 할 수 없습니다. 은 ") ... 그리고"텍스트의 압축 된 "버전은 전체 사전을 포함하는 플러스 모든 소수 쓰레기를.
- 동일한 알고리즘을 사용하여 압축 된 데이터를 반복적으로 다시 압축하는 데 사용할 수 없습니까? 그러한 기술 (압축 된 데이터가 가능한 한 많은 횟수로 재 압축되어 파일 크기를 크게 줄이는)은 불가능하다는 것이 명백하고 입증되었습니다. 실제로, 모든 임의의 데이터 세트와 압축 된 데이터 사이에는 bijection이 없습니다. 그렇다면 왜 이것이 가능하다고 느끼는가?
다시 한 번 상황을 직관적으로 파악하는 것 같습니다. 모든 입력 에 대해 어떤 압축 구성표도 효과적 일 수 없다는 것을 직관적으로 깨달았습니다. 그럴 경우 반복적으로 적용하여 모든 입력을 단일 비트로 압축 한 다음 아무 것도 압축 할 수 없기 때문입니다!
다시 말해 : 모든 .wav 파일을 .mp3로 압축 한 후에는 파일 크기를 압축하여 파일 크기를 개선 할 수 없습니다. MP3 컴프레서가 작업을 완료 한 경우 ZIP 컴프레서가 사용할 패턴이 남아 있지 않습니다.
(암호에도 동일하게 적용됩니다. 선택한 0의 암호화 알고리즘에 따라 0의 파일을 가져 와서 암호화하면 결과 파일 이 압축되지 않는 것이 좋습니다. 그렇지 않으면 암호화 알고리즘이 출력에 "패턴"을 유출합니다!)
- 기술이 아직 완벽하지 않더라도 분명히 최적화되고 강력하게 향상 될 수 있습니다. 왜 이것이 더 널리 알려지지 않았습니까? 실제로 이러한 주장과 실험 결과가 사실이라면 컴퓨팅에 혁명을 일으킬 수 없었습니까?
이러한 주장과 실험 결과는 사실 이 아닙니다 .
Tom van der Zanden이 이미 언급했듯이 Chakraborty, Kar 및 Guchait의 "압축 알고리즘"은 압축 비율을 달성 할 수 없을 뿐만 아니라 돌이킬 수 없다는 점 에도 결함 이 있습니다 (수학에서는 "미사일"이 아님). 그들의 알고리즘은 기본적으로 곱셈이고 곱셈은 교환 적이므로, 모두 같은 이미지로 압축되는 많은 텍스트.
이러한 개념을 직관적으로 이해하면 즉시 올바른 결론을 내릴 수 있습니다. 그리고 시간을 절약 할 수 있다면 , 주제를 전혀 이해하지 않고 주제에 대해 생각 하는 데 많은 시간을 소비 한 논문 저자들에게 불쌍 감을 느낄 것 입니다.
게시 한 URL보다 한 수준 위의 파일 디렉토리 에는 동일한 품질의 139 개의 "논문"이 포함되어 있으며, "컴퓨터, 정보, 통신 및 응용 분야의 신흥 연구에 관한 국제 회의 절차"에 모두 들어 있습니다. 이것은 일반적인 유형의 가짜 회의처럼 보입니다. 이러한 회의의 목적은 사기 학자들이 "저널에 출판"을 주장 할 수 있도록하는 동시에 부도덕 한 주최자가 엄청난 돈을 벌 수 있도록하는 것입니다. (가짜 회의에 대한 자세한 내용은 이 레딧 스레드 또는 주제에 대한 다양한 StackExchange 게시물을 확인하십시오 .) Sham 회의는 모든 필드에 존재합니다. 본능을 신뢰하고 "컨퍼런스 진행"에서 읽은 모든 것을 믿지 않으면 잘될 것입니다.