Ansible을 사용하여 GlusterFS 볼륨 생성 및 마운트


16

GlusterFS를 사용하여 4 대의 컴퓨터에서 볼륨을 만들고 마운트합니다. 말은 예를 들어, 기계가 호출되어 machine1, machine2, machine3machine4.

동료들이 이미 성공적으로 조사되었습니다.

다음 명령을 사용하여 볼륨을 만들었습니다.

sudo gluster volume create ssl replica 2 transport tcp machine1:/srv/gluster/ssl machine2:/srv/gluster/ssl machine3:/srv/gluster/ssl machine4:/srv/gluster/ssl force

그런 다음 볼륨을 다음과 같이 시작합니다.

sudo gluster volume start ssl

/myproject/ssl다음 명령을 사용 하여 디렉토리 를 마운트했습니다 .

sudo mount -t glusterfs machine1:/ssl /myproject/ssl

각 머신에 마운트되면 모든 것이 예상대로 작동하고 /myproject/ssl디렉토리는 모든 머신에서 데이터를 공유합니다.

문제는 지구상에서 어떻게 이것을 Ansible 방식으로 하는가입니다.

이 두 명령을 Ansible 방식으로 수행하려는 시도는 다음과 같습니다.

- name: Configure Gluster volume.
  gluster_volume:
    state: present
    name: "{{ gluster.brick_name }}"
    brick: "{{ gluster.brick_dir }}"
    replicas: 2
    cluster: "{{ groups.glusterssl | join(',') }}"
    host: "{{ inventory_hostname }}"
    force: yes
  become: true
  become_user: root
  become_method: sudo
  run_once: true
  ignore_errors: true

- name: Ensure Gluster volume is mounted.
  mount:
    name: "{{ gluster.brick_name }}"
    src: "{{ inventory_hostname }}:/{{ gluster.brick_name }}"
    fstype: glusterfs
    opts: "defaults,_netdev"
    state: mounted
  become: true
  become_user: root
  become_method: sudo

이전 작업에서 피어 프로브가 이미 성공적으로 돌아 왔음에도 불구하고 Configure Gluster volume작업이 실패합니다.

fatal: [machine3]: FAILED! => 
  {"changed": false, 
   "failed": true, 
   "invocation": {
     "module_args": {
       "brick": "/srv/gluster/ssl",
       "bricks": "/srv/gluster/ssl", 
       "cluster": ["machine1", "machine2", "machine3", "machine4"],
       "directory": null, 
       "force": true, 
       "host": "machine3", 
       "name": "ssl", 
       "options": {}, 
       "quota": null, 
       "rebalance": false, 
       "replicas": 2, 
       "start_on_create": true, 
       "state": "present", 
       "stripes": null, 
       "transport": "tcp"}, 
     "module_name": "gluster_volume"}, 
   "msg": "failed to probe peer machine1 on machine3"}

이 Ansible 작업을 내가 제안한 첫 번째 쉘 명령으로 바꾸면 모든 것이 잘 작동하지만 다음과 같이 Ensure Gluster volume is mounted실패합니다.

fatal: [machine3]: FAILED! => 
  {"changed": false, 
   "failed": true, 
   "invocation": {
     "module_args": {
       "dump": null, 
       "fstab": "/etc/fstab", 
       "fstype": "glusterfs", 
       "name": "ssl", "opts": 
       "defaults,_netdev", 
       "passno": null, "src": 
       "machine3:/ssl", 
       "state": "mounted"}, 
     "module_name": "mount"}, 
   "msg": "Error mounting ssl: Mount failed. Please check the log file for more details.\n"}

관련 로그 출력은 다음과 같습니다.

[2016-10-17 09:10:25.602431] E [MSGID: 114058] [client-handshake.c:1524:client_query_portmap
_cbk] 2-ssl-client-3: failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
[2016-10-17 09:10:25.602480] I [MSGID: 114018] [client.c:2042:client_rpc_notify] 2-ssl-client-3: disconnected from ssl-client-3. Client process will keep trying to connect to glusterd until brick's port is available
[2016-10-17 09:10:25.602500] E [MSGID: 108006] [afr-common.c:3880:afr_notify] 2-ssl-replicate-1: All subvolumes are down. Going offline until atleast one of them comes back up.
[2016-10-17 09:10:25.616402] I [fuse-bridge.c:5137:fuse_graph_setup] 0-fuse: switched to graph 2

따라서 볼륨은 Ansible 작업으로 시작되지 않습니다.

내 질문은 본질적으로 위에서 언급 한 3 가지 명령, Ansible 방식으로했던 것과 같은 방식으로 볼륨을 만들고 마운트하고 시작하는 방법입니다.


6
당신이 이것을 알아 냈는지 아닌지 확실하지 않지만 올바른 방향으로 향할 수있는 GlusterFS에 대한 내 역할의 Ansible 역할을 공유하고 싶습니까? github.com/mrlesmithjr/ansible-glusterfs
mrlesmithjr

답변:


2

다음과 같이 볼륨을 시작해야합니다 state: started.

- name: Configure Gluster volume.
  gluster_volume:
    state: started
    name: "{{ gluster.brick_name }}"
    brick: "{{ gluster.brick_dir }}"
    replicas: 2
    cluster: "{{ groups.glusterssl | join(',') }}"
    host: "{{ inventory_hostname }}"
    force: yes
  become: true
  become_user: root
  become_method: sudo
  run_once: true
  ignore_errors: true
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.