GlusterFS를 사용하여 4 대의 컴퓨터에서 볼륨을 만들고 마운트합니다. 말은 예를 들어, 기계가 호출되어 machine1
, machine2
, machine3
와 machine4
.
동료들이 이미 성공적으로 조사되었습니다.
다음 명령을 사용하여 볼륨을 만들었습니다.
sudo gluster volume create ssl replica 2 transport tcp machine1:/srv/gluster/ssl machine2:/srv/gluster/ssl machine3:/srv/gluster/ssl machine4:/srv/gluster/ssl force
그런 다음 볼륨을 다음과 같이 시작합니다.
sudo gluster volume start ssl
/myproject/ssl
다음 명령을 사용 하여 디렉토리 를 마운트했습니다 .
sudo mount -t glusterfs machine1:/ssl /myproject/ssl
각 머신에 마운트되면 모든 것이 예상대로 작동하고 /myproject/ssl
디렉토리는 모든 머신에서 데이터를 공유합니다.
문제는 지구상에서 어떻게 이것을 Ansible 방식으로 하는가입니다.
이 두 명령을 Ansible 방식으로 수행하려는 시도는 다음과 같습니다.
- name: Configure Gluster volume.
gluster_volume:
state: present
name: "{{ gluster.brick_name }}"
brick: "{{ gluster.brick_dir }}"
replicas: 2
cluster: "{{ groups.glusterssl | join(',') }}"
host: "{{ inventory_hostname }}"
force: yes
become: true
become_user: root
become_method: sudo
run_once: true
ignore_errors: true
- name: Ensure Gluster volume is mounted.
mount:
name: "{{ gluster.brick_name }}"
src: "{{ inventory_hostname }}:/{{ gluster.brick_name }}"
fstype: glusterfs
opts: "defaults,_netdev"
state: mounted
become: true
become_user: root
become_method: sudo
이전 작업에서 피어 프로브가 이미 성공적으로 돌아 왔음에도 불구하고 Configure Gluster volume
작업이 실패합니다.
fatal: [machine3]: FAILED! =>
{"changed": false,
"failed": true,
"invocation": {
"module_args": {
"brick": "/srv/gluster/ssl",
"bricks": "/srv/gluster/ssl",
"cluster": ["machine1", "machine2", "machine3", "machine4"],
"directory": null,
"force": true,
"host": "machine3",
"name": "ssl",
"options": {},
"quota": null,
"rebalance": false,
"replicas": 2,
"start_on_create": true,
"state": "present",
"stripes": null,
"transport": "tcp"},
"module_name": "gluster_volume"},
"msg": "failed to probe peer machine1 on machine3"}
이 Ansible 작업을 내가 제안한 첫 번째 쉘 명령으로 바꾸면 모든 것이 잘 작동하지만 다음과 같이 Ensure Gluster volume is mounted
실패합니다.
fatal: [machine3]: FAILED! =>
{"changed": false,
"failed": true,
"invocation": {
"module_args": {
"dump": null,
"fstab": "/etc/fstab",
"fstype": "glusterfs",
"name": "ssl", "opts":
"defaults,_netdev",
"passno": null, "src":
"machine3:/ssl",
"state": "mounted"},
"module_name": "mount"},
"msg": "Error mounting ssl: Mount failed. Please check the log file for more details.\n"}
관련 로그 출력은 다음과 같습니다.
[2016-10-17 09:10:25.602431] E [MSGID: 114058] [client-handshake.c:1524:client_query_portmap
_cbk] 2-ssl-client-3: failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
[2016-10-17 09:10:25.602480] I [MSGID: 114018] [client.c:2042:client_rpc_notify] 2-ssl-client-3: disconnected from ssl-client-3. Client process will keep trying to connect to glusterd until brick's port is available
[2016-10-17 09:10:25.602500] E [MSGID: 108006] [afr-common.c:3880:afr_notify] 2-ssl-replicate-1: All subvolumes are down. Going offline until atleast one of them comes back up.
[2016-10-17 09:10:25.616402] I [fuse-bridge.c:5137:fuse_graph_setup] 0-fuse: switched to graph 2
따라서 볼륨은 Ansible 작업으로 시작되지 않습니다.
내 질문은 본질적으로 위에서 언급 한 3 가지 명령, Ansible 방식으로했던 것과 같은 방식으로 볼륨을 만들고 마운트하고 시작하는 방법입니다.
6
당신이 이것을 알아 냈는지 아닌지 확실하지 않지만 올바른 방향으로 향할 수있는 GlusterFS에 대한 내 역할의 Ansible 역할을 공유하고 싶습니까? github.com/mrlesmithjr/ansible-glusterfs
—
mrlesmithjr