이 Gluster Volume을 만들 수없는 이유는 무엇입니까?


9

첫 번째 Gluster 3.4 설치를 설정하고 있으며 분산 복제 볼륨을 생성 할 때까지 모두 정상입니다.

4 개의 서버 192.168.0.11, 192.168.0.12, 192.168.0.13 & 192.168.0.14가 있습니다.

192.168.0.11에서 다음을 실행했습니다.

gluster peer probe 192.168.0.12
gluster peer probe 192.168.0.13
gluster peer probe 192.168.0.14

각 서버에서 / export / brick1에 마운트 된 스토리지 볼륨이 있습니다.

그런 다음 192.168.0.11을 실행했습니다.

gluster volume create gv0 replica2 192.168.0.11:/export/brick1 192.168.0.12:/export/brick1 192.168.0.13:/export/brick1 192.168.0.14:/export/brick1

하지만 오류가 발생합니다.

volume create: gv0: failed: Host 192.168.0.11 is not in 'Peer in Cluster' state

Gluster Peer 상태를 실행하면 연결된 다른 호스트와 3 개의 피어가 표시됩니다. 즉 피어 수 : 3

호스트 이름 : 192.168.0.12 포트 : 24007 Uuid : bcea6044-f841-4465-88e4-f76a0c8d5198 상태 : 클러스터의 피어 (연결됨)

호스트 이름 : 192.168.0.13 포트 : 24007 Uuid : 3b5c188e-9be8-4d0f-a7bd-b738a88f2199 상태 : 클러스터의 피어 (연결됨)

호스트 이름 : 192.168.0.14 포트 : 24007 Uuid : f6f326eb-0181-4f99-8072-f27652dab064 상태 : 클러스터의 피어 (연결됨)

그러나 192.168.0.12에서 동일한 명령은 3 개의 호스트도 표시하며 192.168.0.11은 그 일부입니다. 즉

Number of Peers: 3

Hostname: 192.168.0.11
Port: 24007
Uuid: 09a3bacb-558d-4257-8a85-ca8b56e219f2
State: Peer in Cluster (Connected)

Hostname: 192.168.0.13
Uuid: 3b5c188e-9be8-4d0f-a7bd-b738a88f2199
State: Peer in Cluster (Connected)

Hostname: 192.168.0.14
Uuid: f6f326eb-0181-4f99-8072-f27652dab064
State: Peer in Cluster (Connected)

따라서 192.168.0.11은 확실히 클러스터의 일부입니다.

문제는 gluster 명령을 실행할 때 첫 번째 Gluster 서버에서 볼륨을 만들 수없는 이유입니다. 이 정상적인 동작입니까 아니면 일종의 버그입니까?

답변:


15

피어 127.0.0.1과 연결되지 않은 소켓에 대한 모호한 오류 메시지가 표시되었습니다.

[2013-08-16 00 : 36 : 56.765755] W [socket.c : 1494 : __ socket_proto_state_machine] 0-socket.management : 소켓에서 읽지 못했습니다. 오류 (전송 끝 점이 연결되어 있지 않음), 피어 (127.0.0.1:1022)

NAT로 인한 문제였습니다. NAT 장치 뒤에있는 Gluster 서버를 만들고 공용 IP를 사용하여 이름을 확인하려고했습니다. 로컬 컴퓨터에서는 제대로 작동하지 않습니다.

내가 가진 것은 각 노드에서 다음과 같은 것이 었습니다.

다음을 포함하는 호스트 파일

192.168.0.11  gluster1
192.168.0.12  gluster2
192.168.0.13  gluster3
192.168.0.14  gluster4

해결 방법은 신뢰할 수있는 피어를 먼저 제거하는 것이 었습니다

sudo gluster peer detach gluster2
sudo gluster peer detach gluster3
sudo gluster peer detach gluster4

그런 다음 각 시스템의 호스트 파일을 다음과 같이 변경하십시오.

# Gluster1
127.0.0.1     gluster1
192.168.0.12  gluster2
192.168.0.13  gluster3
192.168.0.14  gluster4


# Gluster2
192.168.0.11  gluster1
127.0.0.1     gluster2
192.168.0.13  gluster3
192.168.0.14  gluster4

기타

그런 다음 피어 프로브를 만들고 마지막으로 볼륨을 만든 다음 성공했습니다.

이 경우 IP 주소 (공용 주소)를 사용하는 것이 좋습니다. NAT 뒤에 개인 주소를 사용하면 작동합니다. 필자의 경우 각 서버는 AWS 클라우드에서 NAT 뒤에있었습니다.


1
내 경우에는 내가 내부 IP 주소와 협력, 127.0.0.1을 터치 충분하지 않았다
arod가

1

이 형식을 사용하여 복제본 수를 4 개의 노드로 명시 적으로 정의하십시오.-

gluster volume create NEW-VOLNAME [stripe COUNT] [replica COUNT] [transport <tcp | rdma>] NEW-BRICK ...

이 순수한 복제본이 있고 스트라이프가 없다고 가정합니까?

192.168.0.11에서 이것을 시도하십시오 :-

먼저 모든 것을 분리하십시오.

sudo gluster peer detach 192.168.0.12
sudo gluster peer detach 192.168.0.13
sudo gluster peer detach 192.168.0.14

이 형식으로 다음에 다시 추가

gluster volume create gv0 replica 4 transport tcp 192.168.0.11:/export/brick1 192.168.0.12:/export/brick1 192.168.0.13:/export/brick1 192.168.0.14:/export/brick1

참고이 노드를 네 개의 노드 복제본 세트로 명시 적으로 정의했습니다. 또한 tcp를 통한 전송을 명시 적으로 정의했습니다 .

복제 세트에서 두 장치를 스트라이핑하려면 다음과 같이 사용하십시오.-

gluster volume create gv0 stripe 2 replica 2 transport tcp 192.168.0.11:/export/brick1 192.168.0.12:/export/brick1 192.168.0.13:/export/brick1 192.168.0.14:/export/brick1

그것을 유지하면서, 최근에 gluster를 발견했고 분산 파일 시스템에 대한이 이데올로기를 좋아합니다. 실제 예술 작품입니다.

KVM 가상 데이터 스토어에 HA 이중화를 제공하기 위해 gluster를 사용합니다. 마술 물건


불행히도 정확히 같은 오류가 발생합니다. 또한 복제본 수를 지정하지 않고 모든 볼륨이 현재 분리되어 있으면 동일한 오류가 발생합니다. 192.168.0.11 브릭을 제거하면 192.168.0.12 호스트가 클러스터 상태의 피어에 있지 않다고 주장하므로 먼저 호스트를 조사해야합니다. 적어도 이것은 3.4 버전의 경우입니다
Matt

최신 버전의 단점을 제안하는 것이 옳을 수도 있습니다. 세트에서 세 피어를 모두 설정한다는 사실은 192.168.0.11에 설정된 오류에 관계없이 위기가 모두 작동하고 있음을 나타냅니다. 다섯 번째 테스트 노드에서 공유를 마운트하고 glusterFS에 쓰면 어떻게됩니까? 쓰기는 모든 벽돌에 나타 납니까?
AngryWombat

실제로 단일 브릭에 일반 분산 볼륨을 만들 수도 없습니다. 나는 그것을 만들 수 없다는 오류가 발생합니다. 로그에는 아무런 정보가 없습니다. 그것은 그것을 완전히 버리는 것처럼 느끼게합니다.
Matt

5 주 전에 비슷한 문제가 발생하여 v3.3으로 이동하면 문제가 해결되었습니다. 이 단계에서 유일한 다른 제안은 3.3으로 돌아가서 다시 테스트하는 것입니다.
AngryWombat

또한 아마도 두 개의 노드로 시작해서 거기서부터 작업 할 수 있습니다. 어떤 배포판을 사용하고 있습니까? 난 내이 REPO에 buntu 12.04에서 실행되었다 : - sudo는 추가 쉽다 - 저장소 PPA를 : semiosis / 우분투 - 글루 스터 FS (GlusterFS) - 3.3
AngryWombat
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.