답변:
작은 파일의 경우 :
hexdump -C file | tail
이 hexdump
유틸리티는 동일한 내용으로 연속적인 행을 압축하므로 마지막 10 행의 출력을 제외한 모든 행을 삭제하면 출력이 반복되는 마지막 위치가 표시됩니다.
더 큰 파일의 경우
dd if=file bs=1M skip=$n count=1 | hexdump -C | tail
의 다른 값에 대해서는 $n
이진 검색을 수행하십시오. 예 : 700GB 파일의 경우,로 시작 skip=350000
합니다. 출력이 모두 0으로 돌아 오면 반으로 줄어 skip=175000
들고 0이 아닌 바이트를 표시하면 0으로 돌아가고 skip=525000
각 반복에서 단계 크기를 절반으로 줄입니다. 이것은 파일 내부에 큰 0 블록이 없지만 큰 파일의 경우 훨씬 빠르다고 가정합니다.
hexdump
최근에 여러 번 사용한 명령으로 밝혀졌습니다.