Clickhouse集群安裝部署


相關知識參考:https://www.cnblogs.com/jmx-bigdata/p/13708835.html

1、Clickhouse集群安裝部署,首先安裝單機版,可參考之前:https://www.cnblogs.com/biehongli/p/14364802.html,我是先安裝了一台虛擬機,然后克隆了兩台機器,所以,克隆完成,配置好ip地址,三台服務器的Clickhouse就安裝完畢了,如果是正式環境,三台機器的安裝方式就按照單機版先安裝即可。此時,三台服務器的Clickhouse安裝完成。

1 查看安裝信息,目錄結構。
2 /etc/clickhouse-server:服務端的配置文件目錄,包括全局配置config.xml和用戶配置users.xml等。
3 /etc/clickhouse-client:客戶端配置,包括conf.d文件夾和config.xml文件。
4 /var/lib/clickhouse:默認的數據存儲目錄(通常會修改默認路徑配置,將數據保存到大容量磁盤掛載的路徑)。
5 /var/log/clickhouse-server:默認保存日志的目錄(通常會修改路徑配置,將日志保存到大容量磁盤掛載的路徑)。

 

2、開始安裝Zookeeper,集群安裝參考:https://www.cnblogs.com/biehongli/p/7650570.html,Zookeeper集群搭建完成之后,開始整合Clickhouse和Zookeeper。啟動Zookeeper集群。

 1 [root@master apache-zookeeper-3.6.1-bin]# ls
 2 bin  conf  data  docs  lib  LICENSE.txt  logs  NOTICE.txt  README.md  README_packaging.md
 3 [root@master apache-zookeeper-3.6.1-bin]# cd bin/
 4 [root@master bin]# ls
 5 README.txt    zkCli.cmd  zkEnv.cmd  zkServer.cmd            zkServer.sh            zkSnapShotToolkit.sh  zkTxnLogToolkit.sh
 6 zkCleanup.sh  zkCli.sh   zkEnv.sh   zkServer-initialize.sh  zkSnapShotToolkit.cmd  zkTxnLogToolkit.cmd
 7 [root@master bin]# 
 8 [root@master bin]# 
 9 [root@master bin]# ./zkServer.sh status
10 ZooKeeper JMX enabled by default
11 Using config: /usr/local/soft/apache-zookeeper-3.6.1-bin/bin/../conf/zoo.cfg
12 Client port found: 2181. Client address: localhost.
13 Error contacting service. It is probably not running.
14 [root@master bin]# 
15 [root@master bin]# 
16 [root@master bin]# systemctl status firewalld.service 
17 ● firewalld.service - firewalld - dynamic firewall daemon
18    Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
19    Active: inactive (dead)
20      Docs: man:firewalld(1)
21 [root@master bin]# ./zkServer.sh status
22 ZooKeeper JMX enabled by default
23 Using config: /usr/local/soft/apache-zookeeper-3.6.1-bin/bin/../conf/zoo.cfg
24 Client port found: 2181. Client address: localhost.
25 Mode: follower

記得關閉三台機器的防火牆哦!

 

3、首先,修改/etc/clickhouse-server/目錄下的config.xml。

<!-- 如果禁用了ipv6,使用下面配置 -->
<listen_host>0.0.0.0</listen_host>
<!-- 如果沒有禁用ipv6,使用下面配置,我使用的下面的配置 -->
<listen_host>::</listen_host>

然后,在/etc/下創建集群配置文件metrika.xml文件(這個文件需要創建),在Clickhouse啟動的時候會加載這個配置文件以集群的形式啟動Clickhouse,可以選擇配置不包含副本的分片配置,還可以為分片配置多個副本。

 1 <yandex>
 2 <!-- /etc/clickhouse-server/config.xml 中配置的remote_servers的incl屬性值,-->
 3 <clickhouse_remote_servers>
 4     <!-- 集群名稱,可以修改 -->
 5     <doit_ch_cluster1> 
 6         <!-- 配置三個分片,每個分片對應一台機器,為每個分片配置一個副本 -->
 7         <shard>
 8              <internal_replication>true</internal_replication>
 9             <replica>
10                 <host>master</host>
11                 <port>9000</port>
12             </replica>
13         </shard>
14         <shard>
15             <replica>
16                 <internal_replication>true</internal_replication>
17                 <host>slaver1</host>
18                 <port>9000</port>
19             </replica>
20         </shard>
21         <shard>
22             <internal_replication>true</internal_replication>
23             <replica>
24                 <host>slaver2</host>
25                 <port>9000</port>
26             </replica>
27         </shard>
28     </doit_ch_cluster1>
29 </clickhouse_remote_servers>
30 
31 
32 <!-- zookeeper相關配置 -->
33 <!-- 該標簽與config.xml的<zookeeper incl="zookeeper-servers" optional="true" /> 保持一致 --> 
34 <zookeeper-servers>
35   <node index="1">
36     <host>master</host>
37     <port>2181</port>
38   </node>
39 
40   <node index="2">
41     <host>slaver1</host>
42     <port>2181</port>
43   </node>
44   <node index="3">
45     <host>slaver2</host>
46     <port>2181</port>
47   </node>
48 </zookeeper-servers>
49 
50 <!-- 分片和副本標識,shard標簽配置分片編號,<replica>配置分片副本主機名,需要修改對應主機上的配置 -->
51 <macros>
52     <replica>doit01</replica>
53 </macros>
54 <networks>
55    <ip>::/0</ip>
56 </networks>
57 
58 <clickhouse_compression>
59 <case>
60   <min_part_size>10000000000</min_part_size>
61   <min_part_size_ratio>0.01</min_part_size_ratio>
62   <method>lz4</method>
63 </case>
64 </clickhouse_compression>
65 
66 </yandex>

然后,將/etc/下metrika.xml文件scp到另外兩個機器上,如下所示:

1 [root@master etc]# 
2 [root@master etc]# scp /etc/metrika.xml slaver1:/etc/
3 root@slaver1's password: 
4 metrika.xml                                                                                                                 100% 1427   779.3KB/s   00:00    
5 [root@master etc]# scp /etc/metrika.xml slaver2:/etc/
6 root@slaver2's password: 
7 metrika.xml                                                                                                                 100% 1427   844.8KB/s   00:00    
8 [root@master etc]# 

在每台機器上啟動Clickhouse服務,以集群的形式啟動,如果想要再以單節點的形式啟動那么就刪除/etc/下的metrika.xml文件即可單節點的形式啟動。

 1 [root@slaver1 bin]# service clickhouse-server status
 2 clickhouse-server service is running
 3 [root@slaver1 bin]# 
 4 [root@slaver1 bin]# service clickhouse-server stop
 5 Stop clickhouse-server service: DONE
 6 [root@slaver1 bin]# 
 7 [root@slaver1 bin]# 
 8 [root@slaver1 bin]# service clickhouse-server start
 9 Start clickhouse-server service: Path to data directory in /etc/clickhouse-server/config.xml: /var/lib/clickhouse/
10 
11 DONE
12 [root@slaver1 bin]# 
13 [root@slaver1 bin]# 
14 [root@slaver1 bin]# 
15 [root@slaver1 bin]# service clickhouse-server status
16 clickhouse-server service is running
17 [root@slaver1 bin]# 

如果遇到servie:未找到命令的話,可以使用下面的方法解決,如下所示:

1 [root@master ~]# service
2 bash: service: 未找到命令...
3 [root@master ~]# 

首先,要知道,su 或者 su root:的話只是將當前身份轉為root,用戶shell並沒有改變,所以有些系統命令不能使用。

如果使用,su -或者su -l或者su -l root,可以完全的將當前環境轉為root環境,如同root直接登陸。

其次,service的路徑為/sbin/service,如果shell沒有改變,那么你的PATH中默認沒有/sbin,所以不行,而如果用su -命令環境改為root,PATH中就包含/sbin。

 

4、確定Zookeeper集群啟動,啟動三台Clickhouse的服務,然后在任意一台啟動Clickhouse的客戶端,使用查看集群信息的sql進行查看信息,如下所示:

 1 [root@master ~]# clickhouse-client -m
 2 ClickHouse client version 20.8.3.18.
 3 Connecting to localhost:9000 as user default.
 4 Connected to ClickHouse server version 20.8.3 revision 54438.
 5 
 6 master :) 
 7 master :) 
 8 master :) 
 9 master :) select * from system.clusters;
10 
11 SELECT *
12 FROM system.clusters
13 
14 ┌─cluster───────────────────────────┬─shard_num─┬─shard_weight─┬─replica_num─┬─host_name─┬─host_address────┬─port─┬─is_local─┬─user────┬─default_database─┬─errors_count─┬─estimated_recovery_time─┐
15 │ doit_ch_cluster1                  │         111 │ master    │ 192.168.110.13390001default │                  │            0016 │ doit_ch_cluster1                  │         211 │ slaver1   │ 192.168.110.13490000default │                  │            0017 │ doit_ch_cluster1                  │         311 │ slaver2   │ 192.168.110.13590000default │                  │            0018 │ test_cluster_two_shards           │         111127.0.0.1127.0.0.190001default │                  │            0019 │ test_cluster_two_shards           │         211127.0.0.2127.0.0.290000default │                  │            0020 │ test_cluster_two_shards_localhost │         111 │ localhost │ ::190001default │                  │            0021 │ test_cluster_two_shards_localhost │         211 │ localhost │ ::190001default │                  │            0022 │ test_shard_localhost              │         111 │ localhost │ ::190001default │                  │            0023 │ test_shard_localhost_secure       │         111 │ localhost │ ::194400default │                  │            0024 │ test_unavailable_shard            │         111 │ localhost │ ::190001default │                  │            0025 │ test_unavailable_shard            │         211 │ localhost │ ::110default │                  │            0026 └───────────────────────────────────┴───────────┴──────────────┴─────────────┴───────────┴─────────────────┴──────┴──────────┴─────────┴──────────────────┴──────────────┴─────────────────────────┘
27 
28 11 rows in set. Elapsed: 0.019 sec. 
29 
30 master :) 

或者使用指定字段的查詢語句,方便觀察,如下所示:

 1 master :) 
 2 master :) select cluster,shard_num,replica_num,host_name,port,user from system.clusters;
 3 
 4 SELECT 
 5     cluster,
 6     shard_num,
 7     replica_num,
 8     host_name,
 9     port,
10     user
11 FROM system.clusters
12 
13 ┌─cluster───────────────────────────┬─shard_num─┬─replica_num─┬─host_name─┬─port─┬─user────┐
14 │ doit_ch_cluster1                  │         11 │ master    │ 9000default15 │ doit_ch_cluster1                  │         21 │ slaver1   │ 9000default16 │ doit_ch_cluster1                  │         31 │ slaver2   │ 9000default17 │ test_cluster_two_shards           │         11127.0.0.19000default18 │ test_cluster_two_shards           │         21127.0.0.29000default19 │ test_cluster_two_shards_localhost │         11 │ localhost │ 9000default20 │ test_cluster_two_shards_localhost │         21 │ localhost │ 9000default21 │ test_shard_localhost              │         11 │ localhost │ 9000default22 │ test_shard_localhost_secure       │         11 │ localhost │ 9440default23 │ test_unavailable_shard            │         11 │ localhost │ 9000default24 │ test_unavailable_shard            │         21 │ localhost │    1default25 └───────────────────────────────────┴───────────┴─────────────┴───────────┴──────┴─────────┘
26 
27 11 rows in set. Elapsed: 0.011 sec. 
28 
29 master :) 

 

5、分布式DDL操作,默認情況下,CREATE、DROP、ALTER、RENAME操作僅僅在當前執行該命令的server上生效。在集群環境下,可以使用ON CLUSTER語句,這樣就可以在整個集群發揮作用。

可以創建一張分布式表,如下所示:

CREATE TABLE IF NOT EXISTS user_cluster ON CLUSTER doit_ch_cluster1
(
    id Int32,
    name String
)ENGINE = Distributed(doit_ch_cluster1, default, user_local,id);

Distributed表引擎的定義形式如下所示:

1 Distributed(cluster_name, database_name, table_name[, sharding_key])

各個參數的含義分別如下:

a)、cluster_name:集群名稱,與集群配置中的自定義名稱相對應。
b)、database_name:數據庫名稱。
c)、table_name:表名稱。
d)、sharding_key:可選的,用於分片的key值,在數據寫入的過程中,分布式表會依據分片key的規則,將數據分布到各個節點的本地表。

 1 master :) 
 2 master :) 
 3 master :) CREATE TABLE IF NOT EXISTS user_cluster ON CLUSTER doit_ch_cluster1
 4 :-] (
 5 :-]     id Int32,
 6 :-]     name String
 7 :-] )ENGINE = Distributed(doit_ch_cluster1, default, user_local,id);
 8 
 9 CREATE TABLE IF NOT EXISTS user_cluster ON CLUSTER doit_ch_cluster1
10 (
11     `id` Int32,
12     `name` String
13 )
14 ENGINE = Distributed(doit_ch_cluster1, default, user_local, id)
15 
16 ┌─host────┬─port─┬─status─┬─error─┬─num_hosts_remaining─┬─num_hosts_active─┐
17 │ slaver2 │ 90000 │       │                   2018 │ master  │ 90000 │       │                   1019 │ slaver1 │ 90000 │       │                   0020 └─────────┴──────┴────────┴───────┴─────────────────────┴──────────────────┘
21 
22 3 rows in set. Elapsed: 0.188 sec. 
23 
24 master :) 
25 master :) 
26 master :) 

注意:創建分布式表是讀時檢查的機制,也就是說對創建分布式表和本地表的順序並沒有強制要求。同樣值得注意的是,在上面的語句中使用了ON CLUSTER分布式DDL,這意味着在集群的每個分片節點上,都會創建一張Distributed表,這樣便可以從其中任意一端發起對所有分片的讀、寫請求。 

 

6、創建完成上面的分布式表時,在每台機器上查看表,發現每台機器上都存在一張剛剛創建好的表。

 1 master :) use default;
 2 
 3 USE default
 4 
 5 Ok.
 6 
 7 0 rows in set. Elapsed: 0.007 sec. 
 8 
 9 master :) show tables;
10 
11 SHOW TABLES
12 
13 ┌─name─────────┐
14 │ user_cluster │
15 └──────────────┘
16 
17 1 rows in set. Elapsed: 0.019 sec. 
18 
19 master :) desc user_cluster;
20 
21 DESCRIBE TABLE user_cluster
22 
23 ┌─name─┬─type───┬─default_type─┬─default_expression─┬─comment─┬─codec_expression─┬─ttl_expression─┐
24 │ id   │ Int32  │              │                    │         │                  │                │
25 │ name │ String │              │                    │         │                  │                │
26 └──────┴────────┴──────────────┴────────────────────┴─────────┴──────────────────┴────────────────┘
27 
28 2 rows in set. Elapsed: 0.010 sec. 
29 
30 master :) 

接下來就需要創建本地表了,在每台機器上分別創建一張本地表,就是在三台機器上都創建一個本地表:

 1 master :) CREATE TABLE IF NOT EXISTS user_local 
 2 :-] (
 3 :-]     id Int32,
 4 :-]     name String
 5 :-] )ENGINE = MergeTree()
 6 :-] ORDER BY id
 7 :-] PARTITION BY id
 8 :-] PRIMARY KEY id;
 9 
10 CREATE TABLE IF NOT EXISTS user_local
11 (
12     `id` Int32,
13     `name` String
14 )
15 ENGINE = MergeTree()
16 PARTITION BY id
17 PRIMARY KEY id
18 ORDER BY id
19 
20 Ok.
21 
22 0 rows in set. Elapsed: 0.009 sec. 
23 
24 master :) 
25 master :) 

首先,先在一台機器上,對user_local表進行插入數據,然后再查詢user_cluster表,如下所示:

 1 -- 插入數據
 2 master :) INSERT INTO user_local VALUES(1,'tom'),(2,'jack');
 3 
 4 INSERT INTO user_local VALUES
 5 
 6 Ok.
 7 
 8 2 rows in set. Elapsed: 0.011 sec. 
 9 
10 -- 查詢user_cluster表,可見通過user_cluster表可以操作所有的user_local表
11 master :) select * from user_cluster; 
12 
13 SELECT *
14 FROM user_cluster
15 
16 ┌─id─┬─name─┐
171 │ tom  │
18 └────┴──────┘
19 ┌─id─┬─name─┐
202 │ jack │
21 └────┴──────┘
22 
23 2 rows in set. Elapsed: 0.044 sec. 
24 
25 master :) 

接下來,我們再向user_cluster中插入一些數據,觀察user_local表數據變化,可以發現數據被分散存儲到了其他節點上了。

 1 ----------------- 向user_cluster插入數據
 2 master :) 
 3 
 4 ----------------- 查看master節點的user_cluster數據
 5 master :) select * from user_cluster;
 6 
 7 SELECT *
 8 FROM user_cluster
 9 
10 ┌─id─┬─name─┐
112 │ jack │
12 └────┴──────┘
13 ┌─id─┬─name─┐
141 │ tom  │
15 └────┴──────┘
16 ┌─id─┬─name──┐
173 │ lilei │
18 └────┴───────┘
19 ┌─id─┬─name──┐
204 │ lihua │
21 └────┴───────┘
22 
23 4 rows in set. Elapsed: 0.029 sec. 
24 
25 master :) 
26 
27 ----------------- 查看master節點的user_local數據
28 master :) select * from user_local;
29 
30 SELECT *
31 FROM user_local
32 
33 ┌─id─┬─name─┐
342 │ jack │
35 └────┴──────┘
36 ┌─id─┬─name─┐
371 │ tom  │
38 └────┴──────┘
39 ┌─id─┬─name──┐
403 │ lilei │
41 └────┴───────┘
42 
43 3 rows in set. Elapsed: 0.011 sec. 
44 
45 master :) 
46 
47 
48 ----------------- 查看slave1節點的數據信息
49 slaver1 :) select * from user_local;
50 
51 SELECT *
52 FROM user_local
53 
54 ┌─id─┬─name──┐
554 │ lihua │
56 └────┴───────┘
57 
58 1 rows in set. Elapsed: 0.015 sec. 
59 
60 slaver1 :) 
61 slaver1 :) 

 

7、如何使用DBeaver查看Clickhouse集群的數據和信息呢,如下所示:

集群名稱user_cluster,本地表user_local,在DBeaver工具連接Clickhouse的時候,在視圖可以查看集群的數據信息,在表下面可以查看本地表的數據信息,其中集群數據會分布到不同的分片上。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM