web-dev-qa-db-ja.com

AnsibleでGlusterFSボリュームを作成してマウントする

GlusterFSを使用して、4台のマシンにわたってボリュームを作成およびマウントしています。たとえば、マシンがmachine1machine2machine3およびmachine4であるとします。

私の仲間はすでにうまく調査されています。

次のコマンドを使用してボリュームを作成しました。

Sudo gluster volume create ssl replica 2 transport tcp machine1:/srv/gluster/ssl machine2:/srv/gluster/ssl machine3:/srv/gluster/ssl machine4:/srv/gluster/ssl force

次に、ボリュームを次のように開始します。

Sudo gluster volume start ssl

次のコマンドを使用して、ディレクトリ/myproject/sslをマウントしました。

Sudo mount -t glusterfs machine1:/ssl /myproject/ssl

各マシンにマウントすると、すべてが期待どおりに機能し、/myproject/sslディレクトリにはすべてのマシンでデータが共有されます。

問題は、地球上でこれをどのようにしてAnsibleの方法で行うかです。

これらの2つのコマンドをAnsibleの方法で実行しようとする私の試みは次のとおりです。

- name: Configure Gluster volume.
  gluster_volume:
    state: present
    name: "{{ gluster.brick_name }}"
    brick: "{{ gluster.brick_dir }}"
    replicas: 2
    cluster: "{{ groups.glusterssl | join(',') }}"
    Host: "{{ inventory_hostname }}"
    force: yes
  become: true
  become_user: root
  become_method: Sudo
  run_once: true
  ignore_errors: true

- name: Ensure Gluster volume is mounted.
  mount:
    name: "{{ gluster.brick_name }}"
    src: "{{ inventory_hostname }}:/{{ gluster.brick_name }}"
    fstype: glusterfs
    opts: "defaults,_netdev"
    state: mounted
  become: true
  become_user: root
  become_method: Sudo

ピアプローブが前のタスクですでに成功を返しているにもかかわらず、Configure Gluster volumeタスクは次のエラーで失敗します:

fatal: [machine3]: FAILED! => 
  {"changed": false, 
   "failed": true, 
   "invocation": {
     "module_args": {
       "brick": "/srv/gluster/ssl",
       "bricks": "/srv/gluster/ssl", 
       "cluster": ["machine1", "machine2", "machine3", "machine4"],
       "directory": null, 
       "force": true, 
       "Host": "machine3", 
       "name": "ssl", 
       "options": {}, 
       "quota": null, 
       "rebalance": false, 
       "replicas": 2, 
       "start_on_create": true, 
       "state": "present", 
       "stripes": null, 
       "transport": "tcp"}, 
     "module_name": "gluster_volume"}, 
   "msg": "failed to probe peer machine1 on machine3"}

このAnsibleタスクを最初に提案したシェルコマンドで置き換えると、すべてが正常に機能しますが、Ensure Gluster volume is mountedは次のように失敗します。

fatal: [machine3]: FAILED! => 
  {"changed": false, 
   "failed": true, 
   "invocation": {
     "module_args": {
       "dump": null, 
       "fstab": "/etc/fstab", 
       "fstype": "glusterfs", 
       "name": "ssl", "opts": 
       "defaults,_netdev", 
       "passno": null, "src": 
       "machine3:/ssl", 
       "state": "mounted"}, 
     "module_name": "mount"}, 
   "msg": "Error mounting ssl: Mount failed. Please check the log file for more details.\n"}

関連するログ出力は次のとおりです。

[2016-10-17 09:10:25.602431] E [MSGID: 114058] [client-handshake.c:1524:client_query_portmap
_cbk] 2-ssl-client-3: failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
[2016-10-17 09:10:25.602480] I [MSGID: 114018] [client.c:2042:client_rpc_notify] 2-ssl-client-3: disconnected from ssl-client-3. Client process will keep trying to connect to glusterd until brick's port is available
[2016-10-17 09:10:25.602500] E [MSGID: 108006] [afr-common.c:3880:afr_notify] 2-ssl-replicate-1: All subvolumes are down. Going offline until atleast one of them comes back up.
[2016-10-17 09:10:25.616402] I [Fuse-bridge.c:5137:Fuse_graph_setup] 0-Fuse: switched to graph 2

そのため、ボリュームはAnsibleタスクによって開始されません。

私の質問は、基本的に、上記の3つのコマンドを使ってAnsibleで行ったのと同じ方法でボリュームを作成、マウント、および起動するにはどうすればよいですか?

16
Karim Tabet

ボリュームはstate: startedで始める必要があります。

- name: Configure Gluster volume.
  gluster_volume:
    state: started
    name: "{{ gluster.brick_name }}"
    brick: "{{ gluster.brick_dir }}"
    replicas: 2
    cluster: "{{ groups.glusterssl | join(',') }}"
    Host: "{{ inventory_hostname }}"
    force: yes
  become: true
  become_user: root
  become_method: Sudo
  run_once: true
  ignore_errors: true