코딩 이론에서 '코드가 얼마나 좋은가'는 코드가 처리 할 수있는 최대 노이즈 레벨을 수정하거나 더 잘 설명 할 수있는 채널 오류 수를 의미합니다.
더 나은 코드를 얻기 위해 이진 코드가 아닌 큰 알파벳을 사용하여 코드를 설계합니다. 그리고 잘못된 코드 "심볼"을 처리 할 수 있다면 코드가 좋습니다.
왜 부정 행위를 고려하지 않습니까? 우리가 각 기호를 이진 문자열로 "번역"할 때 일어나는 일에만 신경 쓰지 말아야합니까? "비트 에러 레이트"는 "심볼 에러"레이트와 다르다. 예를 들어, 비트 오류 비율은 1/2 이상으로 올라갈 수 없지만 (알아두면 올바르게 이해하면) 충분히 큰 알파벳으로 기호 오류가 까지 올라갈 수 있습니다 . 인위적으로 비트 대신 "기호"만 변경하도록 채널을 제한 하기 때문입니까 , 아니면 코드가 실제로 더 좋기 때문입니까?