SQL Server 설치에서 수백 테라 바이트의 데이터를 가진 클라이언트를보기 시작했습니다. 일부 기업의 총 데이터 양이 페타 바이트의 의미있는 부분에 접근함에 따라, 대량의 데이터를 다루는 사람들이 데이터를 보호하기 위해 무엇을하고 있는지 파악하기 위해 집단 지식 기반을 조사하고 싶습니다.
명백한 문제는 엔터프라이즈 급 스토리지를 사용하여 RAID-5까지도 많은 데이터의 여러 백업을 저장하는 것이 엄청나게 비싸다는 것입니다.
내가 보는 옵션은 다음과 같습니다.
- 다른 데이터 센터에서 데이터의 미러 사본을 작성하고 데이터 소스에 사용 가능한 메커니즘 (예 : 로그 전달 또는 SQL Server의 데이터베이스 미러링)을 사용하여 차이점을 지속적으로 제공하십시오.
- 강력한 압축 알고리즘을 사용하여 정기적으로 백업하십시오 (데이터가 강력하게 압축 되는 경우에만 적합합니다 )
- 중요한 / 변경되는 데이터 부분을 부분 백업합니다.
- 데이터를 백업하지 말고 부패한 신들을 신뢰하십시오.
옵션 # 4가 기본값으로 채택되고 있으며 HA / DR 전문가에게는 이것이 무섭지 만 대안으로 무엇을 조언해야합니까? # 1이 최선의 방법이라고 생각하지만 # 4와 # 3 이외의 대안이 제안 될 때 "그렇지 않다"는 것이 일반적인 대답입니다.
물론 데이터의 변화 속도와 중요도에 달려 있습니다. Microsoft에서 일하는 동안 SQL Server의 모든 HA 기능을 담당 했었기 때문에 대답 할 필요가 없으므로 '종속적'인수에 정통합니다.
나는 내가 놓친 대안에 대해 듣고 싶거나 다른 사람들이 모두 같은 배에 있고 더 많은 저장 공간에 많은 돈을 쓰는 것에 대한 현실적인 대안이 없다는 것에 매우 관심이 있습니다.
미리 감사드립니다-모든 잘 생각하고 표현 된 답변에 적법한 학점이 부여됩니다.