온-프레미스 Gitlab에서 3TB 백업을 수행하는 방법에 대해 Gitlab 지원을 요청할 때 tarball을 생성하는 툴 을 사용하여 응답합니다 .
이것은 모든 수준에서 나에게 잘못 솔기됩니다. 이 tarball에는 postgres 덤프, 도커 이미지, 저장소 데이터, GIT LFS 등 구성 등이 포함됩니다. KB의 매우 동적 인 데이터와 함께 TB의 정적 데이터를 백업하는 것은 적합하지 않습니다. 그리고 우리는 매시간마다 백업을하고 싶습니다.
질문
일관된 백업을 얻기 위해 다른 사람들이 어떻게하는지 알고 싶습니다.
Linux의 ZFS는 솔루션의 일부라면 저에게 좋을 것입니다.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
나는 비록 경험을 말할 수 없다. 하지만 곧 이와 같은 내용을 포함시켜야 할 수도 있습니다.