使用docker compose搭建consul集群环境的例子
导读
consul基本概念
server模式和client模式
server模式和client模式是consul节点的类型;client不是指的用户客户端。
server模式提供数据持久化功能。 client模式不提供持久化功能,并且实际上他也不工作,只是把用户客户端的请求转发到server模式的节点。所以可以把client模式的节点想象成LB(load balance),只负责请求转发。 通常server模式的节点需要配置成多个例如3个,5个。而client模式节点个数没有限制。
server模式启动的命令行参数
-server:表示当前使用的server模式;如果没有指定,则表示是client模式。 -node:指定当前节点在集群中的名称。 -config-dir:指定配置文件路径,定义服务的;路径下面的所有.json结尾的文件都被访问;缺省值为:/consul/config。 -data-dir: consul存储数据的目录;缺省值为:/consul/data。 -datacenter:数据中心名称,缺省值为dc1。 -ui:使用consul自带的web UI界面 。 -join:加入到已有的集群中。 -enable-script-checks: 检查服务是否处于活动状态,类似开启心跳。 -bind: 绑定服务器的ip地址。 -client: 客户端可访问ip,缺省值为:“127.0.0.1”,即仅允许环回连接。 -bootstrap-expect:在一个datacenter中期望的server节点数目,consul启动时会一直等待直到达到这个数目的server才会引导整个集群。这个参数的值在同一个datacenter的所有server节点上必须保持一致。
这里说明一下,另外一个参数-bootstrap,用来控制一个server是否运行在bootstrap模式:当一个server处于bootstrap模式时,它可以选举自己为leader;注意在一个datacenter中只能有一个server处于bootstrap模式。所以这个参数一般只能用在只有一个server的开发环境中,在有多个server的cluster产品环境中,不能使用这个参数,否则如果多个server都标记自己为leader那么会导致数据不一致。另外该标记不能和-bootstrap-expect同时指定。
使用docker-compose来搭建如下的consul集群环境
集群包含三个server:node1, node2, node3 集群包含一个client:node4;并且在client上提供web UI访问服务。.
编辑docker-compose.yml文件
version: '2' networks: byfn: services: consul1: image: consul container_name: node1 command: agent -server -bootstrap-expect=3 -node=node1 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 networks: - byfn consul2: image: consul container_name: node2 command: agent -server -retry-join=node1 -node=node2 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 depends_on: - consul1 networks: - byfn consul3: image: consul container_name: node3 command: agent -server -retry-join=node1 -node=node3 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 depends_on: - consul1 networks: - byfn consul4: image: consul container_name: node4 command: agent -retry-join=node1 -node=ndoe4 -bind=0.0.0.0 -client=0.0.0.0 -datacenter=dc1 -ui ports: - 8500:8500 depends_on: - consul2 - consul3 networks: - byfn
启动服务
$ docker-compose up $ docker exec -t node1 consul members Node Address Status Type Build Protocol DC Segment node1 172.21.0.2:8301 alive server 1.4.0 2 dc1 <all> node2 172.21.0.4:8301 alive server 1.4.0 2 dc1 <all> node3 172.21.0.3:8301 alive server 1.4.0 2 dc1 <all> ndoe4 172.21.0.5:8301 alive client 1.4.0 2 dc1 <default>
访问http://127.0.0.1:8500
注册配置中心例子
spring: application: name: cloud-payment-service ####consul注册中心地址 cloud: consul: enabled: true host: 127.0.0.1 port: 8500 discovery: hostname: 127.0.0.1 prefer-ip-address: true service-name: ${spring.application.name} #healthCheckInterval: 15s instance-id: ${spring.application.name}-8002 enabled: true
KV访问的例子
$ docker exec -t node4 consul kv put foo "Hello foo" $ docker exec -t node4 consul kv put foo/foo1 "Hello foo1" $ docker exec -t node4 consul kv put foo/foo2 "Hello foo2" $ docker exec -t node4 consul kv put foo/foo21 "Hello foo21" $ docker exec -t node4 consul kv get foo Hello foo $ docker exec -t node4 consul kv get -detailed foo/foo1 CreateIndex 124 Flags 0 Key foo/foo1 LockIndex 0 ModifyIndex 124 Session - Value Hello foo1 $ docker exec -t node4 consul kv get -keys -separator="" foo foo foo/foo1 foo/foo2 foo/foo2/foo21 $ docker exec -t node4 consul kv get not-a-real-key Error! No key exists at: not-a-real-key