一般來說,我們寫個客戶端程序大概的樣子是這樣的:
/* glfs_example.c */ // gcc -o glfs_example glfs_example.c -L /usr/lib64/ -lgfapi -I /usr/include/glusterfs/ #include <stdio.h> #include <stdlib.h> #include <errno.h> #include "api/glfs.h" #include "api/glfs-handles.h" #include <string.h> #include <time.h> int main (int argc, char *argv[]) { glfs_t *fs2 = NULL; int ret = 0; glfs_fd_t *fd = NULL; glfs_fd_t *fd2 = NULL; char readbuf[32]; char writebuf[32]; char *filename = "/filename2"; if (argc != 3) { printf ("Expect following args\n\t%s <volname> <hostname>\n", argv[0]); return -1; } /* 初始化gluster環境 */ fs2 = glfs_new (argv[1]); if (!fs2) { fprintf (stderr, "glfs_new: returned NULL\n"); return 1; } ret = glfs_set_volfile_server (fs2, "tcp", argv[2], 24007); ret = glfs_set_logging (fs2, "/dev/stderr", 1); ret = glfs_init (fs2); fprintf (stderr, "glfs_init: returned %d\n", ret); /* 進行libgfapi函數調用 */ fd = glfs_creat (fs2, filename, O_RDWR, 0644); fprintf (stderr, "%s: (%p) %s\n", filename, fd, strerror (errno)); fd2 = glfs_open (fs2, filename, O_RDWR); fprintf (stderr, "%s: (%p) %s\n", filename, fd, strerror (errno)); sprintf (writebuf, "hi there\n"); ret = glfs_write (fd, writebuf, 32, 0); glfs_lseek (fd2, 0, SEEK_SET); ret = glfs_read (fd2, readbuf, 32, 0); printf ("read %d, %s", ret, readbuf); glfs_close (fd); glfs_close (fd2); /* Gluster環境釋放 */ glfs_fini (fs2); return ret; }
我們這里按照程序執行的思路,一句一句的解讀程序的執行過程。
1、 fs2 = glfs_new (argv[1]);
/* glfs_new: 創建一個 'virtual mount' 對象 這應該是調用的一個函數. 在這個新建立的對象(glfs_t類型), 你需要設置一個 volfile path (glfs_set_volfile)或者一個 volfile server (glfs_set_volfile_server). 這個對象還需要使用 glfs_init()初始化,然后才能調用其他的文件操作. @volname: 卷名. 用來標記服務器端的卷以及獲取來的卷文件 (等效於 glusterfsd --volfile-id 命令).
當使用 glfs_set_volfile() 函數時,這個 @volname 就沒有作用了。 */ glfs_t *glfs_new (const char *volname) __THROW GFAPI_PUBLIC(glfs_new, 3.4.0);
1.1 這句內部定義如下:在(glfs.c中)pub_glfs_new
mem_pools_init_early (); // 初始化mem_pool對象。 mem_pools_init_late (); fs = glfs_new_fs (volname); // 初始化struct glfs *fs 內部各個鎖和鏈表 670行 ctx = glusterfs_ctx_new (); // 18行,建立一個對象 ctx.c /* first globals init, for gf_mem_acct_enable_set () */ ret = glusterfs_globals_init (ctx); // 定義於globals.c 中,內部調用 glusterfs_this_init ()
// 定義了一個全局對象 xlator_t global_xlator,並初始化 old_THIS = THIS; // 通過線程本地存儲來保存當前的 xlator_t *old_THIS, 如果還沒有,則建議幾個新的指針來存儲,並設置為之前的全局的 &global_xlator ret = glfs_init_global_ctx (); /* then ctx_defaults_init, for xlator_mem_acct_init(THIS) */ //ret = glusterfs_ctx_defaults_init (ctx);
// 前移句內部會調用這句。初始化ctx:建立內部的iobuf_pool,建event_pool, frame_mem_pool 等一系列的內部資源池 // 這個函數非常重要!!!里面涉及其他資源的建立,請參考相關部分的分析。 fs->ctx = ctx; fs->ctx->process_mode = GF_CLIENT_PROCESS; ret = glfs_set_logging (fs, "/dev/null", 0); fs->ctx->cmd_args.volfile_id = gf_strdup (volname);
到這里,基本內存資源都已經初始化完畢了,event_pool初始化也表示epoll模型也初始化完畢了。
2、glfs_set_volfile_server (fs2, "tcp", argv[2], 24007);
pub_glfs_set_volfile_server // 441行
初始化協議,
3、glfs_init (fs2); 這里開始內部結構的初始化了。
pub_glfs_init (struct glfs *fs) // 1507行 { // create_master (fs)創建一個xlator_t;建議線程啟動epoll;而glfs_volumes_init則是其中最重要的部分!!!
int ret = glfs_init_common (fs); if (ret == 0) { // 之所以有這句,說明前一句里面是異步的初始化,有連接服務器和初始化動作,所以需要等待完成。 ret = glfs_init_wait (fs); } if (ret >= 0) { // 既然這里已經切換到根目錄了,說明之前的兩句作用還是很大的!!! ret = glfs_chdir (fs, "/"); } }
所以我們繼續分析 glfs_volumes_init 該函數 確定當服務器不在當前主機,則執行了glfs_mgmt_init
相關部分請參考:glusterfs 4.0.1 rpc 分析筆記1
// glfs-mgmt.c中 int glfs_mgmt_init (struct glfs *fs) { cmd_args_t *cmd_args = NULL; struct rpc_clnt *rpc = NULL; dict_t *options = NULL; int ret = -1; int port = GF_DEFAULT_BASE_PORT; char *host = NULL; glusterfs_ctx_t *ctx = NULL; ctx = fs->ctx; rpc = rpc_clnt_new (options, THIS, THIS->name, 8); // 建立一個rcp_clnt類型,這個類型封裝了客戶端的基本操作, // 這個函數內部,加載rpc_tranport,並動態加載了socket.so模塊, // rcp_clnt對象遇到事件回調此函數, // 這個函數很重要,當連接成功后,將調用glfs_volfile_fetch 進行初始命令交互 ret = rpc_clnt_register_notify (rpc, mgmt_rpc_notify, THIS); // 注冊接收數據時候的回調函數 ret = rpcclnt_cbk_program_register (rpc, &mgmt_cbk_prog, THIS); ctx->notify = glusterfs_mgmt_notify; // 設置管理器為rcp_clnt對象 ctx->mgmt = rpc; // 然后這個對象工作,內部調用 rpc_transport_connect,其實是調用socket.so的connet() ret = rpc_clnt_start (rpc); return ret; }
4、我們注意到最后終於執行了socket 的connect函數,當底層連接成功后,會逐級的回調:
最終會執行 mgmt_rpc_notify 函數,此函數里面連接成功部分有如下兩句:
rpc_clnt_set_connected (&((struct rpc_clnt*)ctx->mgmt)->conn); ret = glfs_volfile_fetch (fs); // 這一句相當的關鍵,因為這一句里面觸發了連接成功后第一次提交 “遠程調用請求”
glfs_volfile_fetch函數的主要代碼為:
int glfs_volfile_fetch (struct glfs *fs) { cmd_args_t *cmd_args = NULL; gf_getspec_req req = {0, }; int ret = 0; call_frame_t *frame = NULL; glusterfs_ctx_t *ctx = NULL; dict_t *dict = NULL; ctx = fs->ctx; frame = create_frame (THIS, ctx->pool); req.key = cmd_args->volfile_id; req.flags = 0; dict = dict_new (); // Set the supported min and max op-versions, so glusterd can make a // decision ret = dict_set_int32 (dict, "min-op-version", GD_OP_VERSION_MIN); ret = dict_set_int32 (dict, "max-op-version", GD_OP_VERSION_MAX); /* Ask for a list of volfile (glusterd2 only) servers */ if (GF_CLIENT_PROCESS == ctx->process_mode) { req.flags = req.flags | GF_GETSPEC_FLAG_SERVERS_LIST; } ret = dict_allocate_and_serialize (dict, &req.xdata.xdata_val, &req.xdata.xdata_len); ret = mgmt_submit_request (&req, frame, ctx, &clnt_handshake_prog, GF_HNDSK_GETSPEC, glfs_mgmt_getspec_cbk, (xdrproc_t)xdr_gf_getspec_req); out: if (req.xdata.xdata_val) GF_FREE(req.xdata.xdata_val); if (dict) dict_unref (dict); return ret; }
4、引用一篇文章:《glusterfs通信之rpc》