약 100000 개의 작은 파일이있는 디렉토리가 있습니다 (각 파일은 1-3 줄, 각 파일은 텍스트 파일입니다). 크기는 디렉토리가 크지 않습니다 (<2GB). 이 데이터는 전문적으로 관리되는 NFS 서버에 있습니다. 서버는 Linux를 실행합니다. 파일 시스템이 ext3이라고 생각하지만 확실하지 않습니다. 또한 서버에 대한 루트 액세스 권한이 없습니다.
이 파일은 대규모 과학 실험의 결과물이며 제어 할 수 없습니다. 그러나 결과를 분석해야합니다.
이 디렉토리의 모든 I / O 작업 / 처리는 매우 느립니다. 열린 파일에서 읽고 파일을 닫으면 파일을 열 때 (파이썬에서 열림) 속도가 매우 느립니다. bash ls, du 등에서는 작동하지 않습니다.
질문은 ~이야:
처리, fopen, 읽기 등을 실용적으로 수행 할 수있는 방식으로 Linux 디렉토리의 최대 파일 수는 얼마입니까? 대답은 fs 유형, 커널 버전, 서버 버전, 하드웨어 등 많은 것들에 달려 있음을 이해합니다. 가능한 경우 경험 법칙을 원합니다.