Elasticsearch基礎教程
翻譯:潘飛(tinylambda@gmail.com)
基礎概念
Elasticsearch有幾個核心概念。從一開始理解這些概念會對整個學習過程有莫大的幫助。
接近實時(NRT)
Elasticsearch是一個接近實時的搜索平台。這意味着,從索引一個文檔直到這個文檔能夠被搜索到有一個輕微的延遲(通常是1秒)。
集群(cluster)
一個集群就是由一個或多個節點組織在一起,它們共同持有你整個的數據,並一起提供索引和搜索功能。一個集群由一個唯一的名字標識,這個名字默認就是 “elasticsearch”。這個名字是重要的,因為一個節點只能通過指定某個集群的名字,來加入這個集群。在產品環境中顯式地設定這個名字是一個好 習慣,但是使用默認值來進行測試/開發也是不錯的。
節點(node)
一個節點是你集群中的一個服務器,作為集群的一部分,它存儲你的數據,參與集群的索引和搜索功能。和集群類似,一個節點也是由一個名字來標識的,默認情況 下,這個名字是一個隨機的漫威漫畫角色的名字,這個名字會在啟動的時候賦予節點。這個名字對於管理工作來說挺重要的,因為在這個管理過程中,你會去確定網 絡中的哪些服務器對應於Elasticsearch集群中的哪些節點。
一個節點可以通過配置集群名稱的方式來加入一個指定的集群。默認情況下,每個節點都會被安排加入到一個叫做“elasticsearch”的集群中,這意 味着,如果你在你的網絡中啟動了若干個節點,並假定它們能夠相互發現彼此,它們將會自動地形成並加入到一個叫做“elasticsearch”的集群中。
在一個集群里,只要你想,可以擁有任意多個節點。而且,如果當前你的網絡中沒有運行任何Elasticsearch節點,這時啟動一個節點,會默認創建並加入一個叫做“elasticsearch”的集群。
索引(index)
一個索引就是一個擁有幾分相似特征的文檔的集合。比如說,你可以有一個客戶數據的索引,另一個產品目錄的索引,還有一個訂單數據的索引。一個索引由一個名 字來標識(必須全部是小寫字母的),並且當我們要對對應於這個索引中的文檔進行索引、搜索、更新和刪除的時候,都要使用到這個名字。
在一個集群中,如果你想,可以定義任意多的索引。
類型(type)
在一個索引中,你可以定義一種或多種類型。一個類型是你的索引的一個邏輯上的分類/分區,其語義完全由你來定。通常,會為具有一組共同字段的文檔定義一個 類型。比如說,我們假設你運營一個博客平台並且將你所有的數據存儲到一個索引中。在這個索引中,你可以為用戶數據定義一個類型,為博客數據定義另一個類 型,當然,也可以為評論數據定義另一個類型。
文檔(document)
一個文檔是一個可被索引的基礎信息單元。比如,你可以擁有某一個客戶的文檔,某一個產品的一個文檔,當然,也可以擁有某個訂單的一個文檔。文檔以 JSON(Javascript Object Notation)格式來表示,而JSON是一個到處存在的互聯網數據交互格式。
在一個index/type里面,只要你想,你可以存儲任意多的文檔。注意,盡管一個文檔,物理上存在於一個索引之中,文檔必須被索引/賦予一個索引的type。
分片和復制(shards & replicas)
一個索引可以存儲超出單個結點硬件限制的大量數據。比如,一個具有10億文檔的索引占據1TB的磁盤空間,而任一節點都沒有這樣大的磁盤空間;或者單個節點處理搜索請求,響應太慢。
為了解決這個問題,Elasticsearch提供了將索引划分成多份的能力,這些份就叫做分片。當你創建一個索引的時候,你可以指定你想要的分片的數量。每個分片本身也是一個功能完善並且獨立的“索引”,這個“索引”可以被放置到集群中的任何節點上。
分片之所以重要,主要有兩方面的原因:
- 允許你水平分割/擴展你的內容容量
- 允許你在分片(潛在地,位於多個節點上)之上進行分布式的、並行的操作,進而提高性能/吞吐量
至於一個分片怎樣分布,它的文檔怎樣聚合回搜索請求,是完全由Elasticsearch管理的,對於作為用戶的你來說,這些都是透明的。
在一個網絡/雲的環境里,失敗隨時都可能發生,在某個分片/節點不知怎么的就處於離線狀態,或者由於任何原因消失了,這種情況下,有一個故障轉移機制是非 常有用並且是強烈推薦的。為此目的,Elasticsearch允許你創建分片的一份或多份拷貝,這些拷貝叫做復制分片,或者直接叫復制。
復制之所以重要,有兩個主要原因:
- 在分片/節點失敗的情況下,提供了高可用性。因為這個原因,注意到復制分片從不與原/主要(original/primary)分片置於同一節點上是非常重要的。
- 擴展你的搜索量/吞吐量,因為搜索可以在所有的復制上並行運行
總之,每個索引可以被分成多個分片。一個索引也可以被復制0次(意思是沒有復制)或多次。一旦復制了,每個索引就有了主分片(作為復制源的原來的分片)和 復制分片(主分片的拷貝)之別。分片和復制的數量可以在索引創建的時候指定。在索引創建之后,你可以在任何時候動態地改變復制的數量,但是你事后不能改變 分片的數量。
默認情況下,Elasticsearch中的每個索引被分片5個主分片和1個復制,這意味着,如果你的集群中至少有兩個節點,你的索引將會有5個主分片和另外5個復制分片(1個完全拷貝),這樣的話每個索引總共就有10個分片。
這些問題搞清楚之后,我們就要進入好玩的部分了...
安裝
Elasticsearch依賴Java 7。在本文寫作的時候,推薦使用Oracle JDK 1.7.0_55版本。Java的安裝,在各個平台上都有差異,所以我們不想在這里深入太多細節。我只想說,在你安裝Elasticsearch之前,你 可以通過以下命令來檢查你的Java版本(如果有需要,安裝或者升級):
java -version
echo $JAVA_HOME
一旦我們將Java安裝完成,我們就可以下載並安裝Elasticsearch了。其二進制文件可以從 www.elasticsearch.org/download這里下載,你也可以從這里下載以前發布的版本。對於每個版本,你可以在zip、tar、 DEB、RPM類型的包中選擇下載。簡單起見,我們使用tar包。
我們像下面一樣下載Elasticsearch 1.1.1 tar包(Windows用戶應該下載zip包):
curl -L -O https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.1.1.tar.gz
然后,如下將其解壓(Windows下需要unzip響應的zip包):
tar -xzvf elasticsearch-1.1.1.tar.gz
這將在你的當前目錄下創建很多文件和目錄。然后,我們進入到bin目錄下:
cd elasticsearch-1.1.1/bin
至此,我們已經准備好開啟我們的節點和單節點集群(Windows用戶應該運行elasticsearch.bat文件):
./elasticsearch
如果一切順利,你將看到大量的如下信息:
./elasticsearch
[2014-03-13 13:42:17,218][INFO ][node ] [New Goblin] version[1.1.1], pid[2085], build[5c03844/2014-02-25T15:52:53Z]
[2014-03-13 13:42:17,219][INFO ][node ] [New Goblin] initializing ...
[2014-03-13 13:42:17,223][INFO ][plugins ] [New Goblin] loaded [], sites []
[2014-03-13 13:42:19,831][INFO ][node ] [New Goblin] initialized
[2014-03-13 13:42:19,832][INFO ][node ] [New Goblin] starting ...
[2014-03-13 13:42:19,958][INFO ][transport ] [New Goblin] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/192.168.8.112:9300]}
[2014-03-13 13:42:23,030][INFO ][cluster.service] [New Goblin] new_master [New Goblin][rWMtGj3dQouz2r6ZFL9v4g][mwubuntu1][inet[/192.168.8.112:9300]], reason: zen-disco-join (elected_as_master)
[2014-03-13 13:42:23,100][INFO ][discovery ] [New Goblin] elasticsearch/rWMtGj3dQouz2r6ZFL9v4g
[2014-03-13 13:42:23,125][INFO ][http ] [New Goblin] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/192.168.8.112:9200]}
[2014-03-13 13:42:23,629][INFO ][gateway ] [New Goblin] recovered [1] indices into cluster_state
[2014-03-13 13:42:23,630][INFO ][node ] [New Goblin] started
不去涉及太多細節,我們可以看到,一叫做“New Goblin”(你會見到一個不同的漫威漫畫角色)的節點啟動並且將自己選做單結點集群的master。現在不用關心master是什么東西。這里重要的就是,我們在一個集群中開啟了一個節點。
正如先前提到的,我們可以覆蓋集群或者節點的名字。我們可以在啟動Elasticsearch的時候通過命令行來指定,如下:
./elasticsearch --cluster.name my_cluster_name --node.name my_node_name
也要注意一下有http標記的那一行,它提供了有關HTTP地址(192.168.8.112)和端口(9200)的信息,通過這個地址和端口我們就可以 訪問我們的節點了。默認情況下,Elasticsearch使用9200來提供對其REST API的訪問。如果有必要,這個端口是可以配置的。
探索你的集群
rest接口
現在我們已經有一個正常運行的節點(和集群)了,下一步就是要去理解怎樣與其通信了。幸運的是,Elasticsearch提供了非常全面和強大的 REST API,利用這個REST API你可以同你的集群交互。下面是利用這個API,可以做的幾件事情:
- 檢查你的集群、節點和索引的健康狀態、和各種統計信息
- 管理你的集群、節點、索引數據和元數據
- 對你的索引進行CRUD(創建、讀取、更新和刪除)和搜索操作
- 執行高級的查詢操作,像是分頁、排序、過濾、腳本編寫(scripting)、小平面刻畫(faceting)、聚合(aggregations)和許多其它操作
集群健康
讓我們以基本的健康檢查作為開始,我們可以利用它來查看我們集群的狀態。此過程中,我們使用curl,當然,你也可以使用任何可以創建HTTP/REST 調用的工具。我們假設我們還在我們啟動Elasticsearch的節點上並打開另外一個shell窗口。
要檢查集群健康,我們將使用_cat API。需要事先記住的是,我們的節點HTTP的端口是9200:
curl 'localhost:9200/_cat/health?v'
相應的響應是:
epoch timestamp cluster status node.total node.data shards pri relo init unassign
1394735289 14:28:09 elasticsearch green 1 1 0 0 0 0 0
可以看到,我們集群的名字是“elasticsearch”,正常運行,並且狀態是綠色。
當我們詢問集群狀態的時候,我們要么得到綠色、黃色或紅色。綠色代表一切正常(集群功能齊全),黃色意味着所有的數據都是可用的,但是某些復制沒有被分配 (集群功能齊全),紅色則代表因為某些原因,某些數據不可用。注意,即使是集群狀態是紅色的,集群仍然是部分可用的(它仍然會利用可用的分片來響應搜索請 求),但是可能你需要盡快修復它,因為你有丟失的數據。
也是從上面的響應中,我們可以看到,一共有一個節點,由於里面沒有數據,我們有0個分片。注意,由於我們使用默認的集群名字 (elasticsearch),並且由於Elasticsearch默認使用網絡多播(multicast)發現其它節點,如果你在你的網絡中啟動了多 個節點,你就已經把她們加入到一個集群中了。在這種情形下,你可能在上面的響應中看到多個節點。
我們也可以獲得節集群中的節點列表:
curl 'localhost:9200/_cat/nodes?v'
對應的響應是:
curl 'localhost:9200/_cat/nodes?v'
host ip heap.percent ram.percent load node.role master name
mwubuntu1 127.0.1.1 8 4 0.00 d * New Goblin
這兒,我們可以看到我們叫做“New Goblin”的節點,這個節點是我們集群中的唯一節點。
列出所有的索引
讓我們看一下我們的索引:
curl 'localhost:9200/_cat/indices?v'
響應是:
curl 'localhost:9200/_cat/indices?v'
health index pri rep docs.count docs.deleted store.size pri.store.size
這個結果意味着,在我們的集群中,我們沒有任何索引。
創建一個索引
現在讓我們創建一個叫做“customer”的索引,然后再列出所有的索引:
curl -XPUT 'localhost:9200/customer?pretty'
curl 'localhost:9200/_cat/indices?v'
第一個命令使用PUT創建了一個叫做“customer”的索引。我們簡單地將pretty附加到調用的尾部,使其以美觀的形式打印出JSON響應(如果有的話)。
響應如下:
curl -XPUT 'localhost:9200/customer?pretty'
{
"acknowledged" : true
}
curl 'localhost:9200/_cat/indices?v'
health index pri rep docs.count docs.deleted store.size pri.store.size
yellow customer 5 1 0 0 495b 495b
第二個命令的結果告知我們,我們現在有一個叫做customer的索引,並且它有5個主分片和1份復制(都是默認值),其中包含0個文檔。
你可能也注意到了這個customer索引有一個黃色健康標簽。回顧我們之前的討論,黃色意味着某些復制沒有(或者還未)被分配。這個索引之所以這樣,是 因為Elasticsearch默認為這個索引創建一份復制。由於現在我們只有一個節點在運行,那一份復制就分配不了了(為了高可用),直到當另外一個節 點加入到這個集群后,才能分配。一旦那份復制在第二個節點上被復制,這個節點的健康狀態就會變成綠色。
索引並查詢一個文檔
現在讓我們放一些東西到customer索引中。首先要知道的是,為了索引一個文檔,我們必須告訴Elasticsearch這個文檔要到這個索引的哪個類型(type)下。
讓我們將一個簡單的客戶文檔索引到customer索引、“external”類型中,這個文檔的ID是1,操作如下:
curl -XPUT 'localhost:9200/customer/external/1?pretty' -d '
{
"name": "John Doe"
}'
響應如下:
curl -XPUT 'localhost:9200/customer/external/1?pretty' -d '
{
"name": "John Doe"
}'
{
"_index" : "customer",
"_type" : "external",
"_id" : "1",
"_version" : 1,
"created" : true
}
從上面的響應中,我們可以看到,一個新的客戶文檔在customer索引和external類型中被成功創建。文檔也有一個內部id 1, 這個id是我們在索引的時候指定的。
有一個關鍵點需要注意,Elasticsearch在你想將文檔索引到某個索引的時候,並不強制要求這個索引被顯式地創建。在前面這個例子中,如果customer索引不存在,Elasticsearch將會自動地創建這個索引。
現在,讓我們把剛剛索引的文檔取出來:
curl -XGET 'localhost:9200/customer/external/1?pretty'
響應如下:
curl -XGET 'localhost:9200/customer/external/1?pretty'
{
"_index" : "customer",
"_type" : "external",
"_id" : "1",
"_version" : 1,
"found" : true, "_source" : { "name": "John Doe" }
}
除了一個叫做found的字段來指明我們找到了一個ID為1的文檔,和另外一個字段——_source——返回我們前一步中索引的完整JSON文檔之外,其它的都沒有什么特別之處。
刪除一個文檔
現在讓我們刪除我們剛剛創建的索引,並再次列出所有的索引:
curl -XDELETE 'localhost:9200/customer?pretty'
curl 'localhost:9200/_cat/indices?v'
響應如下:
curl -XDELETE 'localhost:9200/customer?pretty'
{
"acknowledged" : true
}
curl 'localhost:9200/_cat/indices?v'
health index pri rep docs.count docs.deleted store.size pri.store.size
這表明我們成功地刪除了這個索引,現在我們回到了集群中空無所有的狀態。
在更進一步之前,我們再細看一下一些我們學過的API命令:
curl -XPUT 'localhost:9200/customer'
curl -XPUT 'localhost:9200/customer/external/1' -d '
{
"name": "John Doe"
}'
curl 'localhost:9200/customer/external/1'
curl -XDELETE 'localhost:9200/customer'
如果我們仔細研究以上的命令,我們可以發現訪問Elasticsearch中數據的一個模式。這個模式可以被總結為:
curl -<REST Verb> <Node>:<Port>/<Index>/<Type><ID>
這個REST訪問模式普遍適用於所有的API命令,如果你能記住它,你就會為掌握Elasticsearch開一個好頭。
修改你的數據
Elasticsearch提供了近乎實時的數據操作和搜索功能。默認情況下,從你索引/更新/刪除你的數據動作開始到它出現在你的搜索結果中,大概會有1秒鍾的延遲。這和其它類似SQL的平台不同,數據在一個事務完成之后就會立即可用。
索引/替換文檔
我們先前看到,怎樣索引一個文檔。現在我們再次調用那個命令:
curl -XPUT 'localhost:9200/customer/external/1?pretty' -d '
{
"name": "John Doe"
}'
再次,以上的命令將會把這個文檔索引到customer索引、external類型中,其ID是1。如果我們對一個不同(或相同)的文檔應用以上的命令,Elasticsearch將會用一個新的文檔來替換(重新索引)當前ID為1的那個文檔。
curl -XPUT 'localhost:9200/customer/external/1?pretty' -d '
{
"name": "Jane Doe"
}'
以上的命令將ID為1的文檔的name字段的值從“John Doe”改成了“Jane Doe”。如果我們使用一個不同的ID,一個新的文檔將會被索引,當前已經在索引中的文檔不會受到影響。
curl -XPUT 'localhost:9200/customer/external/2?pretty' -d '
{
"name": "Jane Doe"
}'
以上的命令,將會索引一個ID為2的新文檔。
在索引的時候,ID部分是可選的。如果不指定,Elasticsearch將產生一個隨機的ID來索引這個文檔。Elasticsearch生成的ID會作為索引API調用的一部分被返回。
以下的例子展示了怎樣在沒有指定ID的情況下來索引一個文檔:
curl -XPOST 'localhost:9200/customer/external?pretty' -d '
{
"name": "Jane Doe"
}'
注意,在上面的情形中,由於我們沒有指定一個ID,我們使用的是POST而不是PUT。
更新文檔
除了可以索引、替換文檔之外,我們也可以更新一個文檔。但要注意,Elasticsearch底層並不支持原地更新。在我們想要做一次更新的時候,Elasticsearch先刪除舊文檔,然后在索引一個更新過的新文檔。
下面的例子展示了怎樣將我們ID為1的文檔的name字段改成“Jane Doe”:
curl -XPOST 'localhost:9200/customer/external/1/_update?pretty' -d '
{
"doc": { "name": "Jane Doe" }
}'
下面的例子展示了怎樣將我們ID為1的文檔的name字段改成“Jane Doe”的同時,給它加上age字段:
curl -XPOST 'localhost:9200/customer/external/1/_update?pretty' -d '
{
"doc": { "name": "Jane Doe", "age": 20 }
}'
更新也可以通過使用簡單的腳本來進行。這個例子使用一個腳本將age加5:
curl -XPOST 'localhost:9200/customer/external/1/_update?pretty' -d '
{
"script" : "ctx._source.age += 5"
}'
在上面的例子中,ctx._source指向當前要被更新的文檔。
注意,在寫作本文時,更新操作只能一次應用在一個文檔上。將來,Elasticsearch將提供同時更新符合指定查詢條件的多個文檔的功能(類似於SQL的UPDATE-WHERE語句)。
刪除文檔
刪除文檔是相當直觀的。以下的例子展示了我們怎樣刪除ID為2的文檔:
curl -XDELETE 'localhost:9200/customer/external/2?pretty'
我們也能夠一次刪除符合某個查詢條件的多個文檔。以下的例子展示了如何刪除名字中包含“John”的所有的客戶:
curl -XDELETE 'localhost:9200/customer/external/_query?pretty' -d '
{
"query": { "match": { "name": "John" } }
}'
注意,以上的URI變成了/_query,以此來表明這是一個“查詢刪除”API,其中刪除查詢標准放在請求體中,但是我們仍然使用DELETE。現在先不要擔心查詢語法,我們將會在本教程后面的部分中涉及。
批處理:
除了能夠對單個的文檔進行索引、更新和刪除之外,Elasticsearch也提供了以上操作的批量處理功能,這是通過使用_bulk API實現的。這個功能之所以重要,在於它提供了非常高效的機制來盡可能快的完成多個操作,與此同時使用盡可能少的網絡往返。
作為一個快速的例子,以下調用在一次bulk操作中索引了兩個文檔(ID 1 - John Doe and ID 2 - Jane Doe):
curl -XPOST 'localhost:9200/customer/external/_bulk?pretty' -d '
{"index":{"_id":"1"}}
{"name": "John Doe" }
{"index":{"_id":"2"}}
{"name": "Jane Doe" }
'
以下例子在一個bulk操作中,首先更新第一個文檔(ID為1),然后刪除第二個文檔(ID為2):
curl -XPOST 'localhost:9200/customer/external/_bulk?pretty' -d '
{"update":{"_id":"1"}}
{"doc": { "name": "John Doe becomes Jane Doe" } }
{"delete":{"_id":"2"}}
'
注意上面的delete動作,由於刪除動作只需要被刪除文檔的ID,所以並沒有對應的源文檔。
bulk API按順序執行這些動作。如果其中一個動作因為某些原因失敗了,將會繼續處理它后面的動作。當bulk API返回時,它將提供每個動作的狀態(按照同樣的順序),所以你能夠看到某個動作成功與否。
探索你的數據
樣本數據集
現在我們對於基本的東西已經有了一些感覺,現在讓我們嘗試使用一些更加貼近現實的數據集。我已經准備了一些假想的客戶的銀行賬戶信息的JSON文檔的樣本。文檔具有以下的模式(schema):
{
"account_number": 0,
"balance": 16623,
"firstname": "Bradshaw",
"lastname": "Mckenzie",
"age": 29,
"gender": "F",
"address": "244 Columbus Place",
"employer": "Euron",
"email": "bradshawmckenzie@euron.com",
"city": "Hobucken",
"state": "CO"
}
我是在http://www.json-generator.com/上生成這些數據的。
載入樣本數據
你可以從https://github.com/bly2k/files/blob/master/accounts.zip?raw=true下載這個樣本數據集。將其解壓到當前目錄下,如下,將其加載到我們的集群里:
curl -XPOST 'localhost:9200/bank/account/_bulk?pretty' --data-binary @accounts.json
curl 'localhost:9200/_cat/indices?v'
響應是:
curl 'localhost:9200/_cat/indices?v'
health index pri rep docs.count docs.deleted store.size pri.store.size
yellow bank 5 1 1000 0 424.4kb 424.4kb
這意味着我們成功批量索引了1000個文檔到銀行索引中(account類型)。
搜索API
現在,讓我們以一些簡單的搜索來開始。有兩種基本的方式來運行搜索:一種是在REST請求的URI中發送搜索參數,另一種是將搜索參數發送到REST請求 體中。請求體方法的表達能力更好,並且你可以使用更加可讀的JSON格式來定義搜索。我們將嘗試使用一次請求URI作為例子,但是教程的后面部分,我們將 僅僅使用請求體方法。
搜索的REST API可以通過_search端點來訪問。下面這個例子返回bank索引中的所有的文檔:
curl 'localhost:9200/bank/_search?q=*&pretty'
我們仔細研究一下這個查詢調用。我們在bank索引中搜索(_search端點),並且q=*參數指示Elasticsearch去匹配這個索引中所有的文檔。pretty參數,和以前一樣,僅僅是告訴Elasticsearch返回美觀的JSON結果。
以下是響應(部分列出):
curl 'localhost:9200/bank/_search?q=*&pretty'
{
"took" : 63,
"timed_out" : false,
"_shards" : {
"total" : 5,
"successful" : 5,
"failed" : 0
},
"hits" : {
"total" : 1000,
"max_score" : 1.0,
"hits" : [ {
"_index" : "bank",
"_type" : "account",
"_id" : "1",
"_score" : 1.0, "_source" : {"account_number":1,"balance":39225,"firstname":"Amber","lastname":"Duke","age":32,"gender":"M","address":"880 Holmes Lane","employer":"Pyrami","email":"amberduke@pyrami.com","city":"Brogan","state":"IL"}
}, {
"_index" : "bank",
"_type" : "account",
"_id" : "6",
"_score" : 1.0, "_source" : {"account_number":6,"balance":5686,"firstname":"Hattie","lastname":"Bond","age":36,"gender":"M","address":"671 Bristol Street","employer":"Netagy","email":"hattiebond@netagy.com","city":"Dante","state":"TN"}
}, {
"_index" : "bank",
"_type" : "account",
對於這個響應,我們看到了以下的部分:
- took —— Elasticsearch執行這個搜索的耗時,以毫秒為單位
- timed_out —— 指明這個搜索是否超時
- _shards —— 指出多少個分片被搜索了,同時也指出了成功/失敗的被搜索的shards的數量
- hits —— 搜索結果
- hits.total —— 能夠匹配我們查詢標准的文檔的總數目
- hits.hits —— 真正的搜索結果數據(默認只顯示前10個文檔)
- _score和max_score —— 現在先忽略這些字段
使用請求體方法的等價搜索是:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_all": {} }
}'
這里的不同之處在於,並不是向URI中傳遞q=*,取而代之的是,我們在_search API的請求體中POST了一個JSON格式請求體。我們將在下一部分中討論這個JSON查詢。
響應是:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_all": {} }
}'
{
"took" : 26,
"timed_out" : false,
"_shards" : {
"total" : 5,
"successful" : 5,
"failed" : 0
},
"hits" : {
"total" : 1000,
"max_score" : 1.0,
"hits" : [ {
"_index" : "bank",
"_type" : "account",
"_id" : "1",
"_score" : 1.0, "_source" : {"account_number":1,"balance":39225,"firstname":"Amber","lastname":"Duke","age":32,"gender":"M","address":"880 Holmes Lane","employer":"Pyrami","email":"amberduke@pyrami.com","city":"Brogan","state":"IL"}
}, {
"_index" : "bank",
"_type" : "account",
"_id" : "6",
"_score" : 1.0, "_source" : {"account_number":6,"balance":5686,"firstname":"Hattie","lastname":"Bond","age":36,"gender":"M","address":"671 Bristol Street","employer":"Netagy","email":"hattiebond@netagy.com","city":"Dante","state":"TN"}
}, {
"_index" : "bank",
"_type" : "account",
"_id" : "13",
有一點需要重點理解一下,一旦你取回了你的搜索結果,Elasticsearch就完成了使命,它不會維護任何服務器端的資源或者在你的結果中打開游標。 這是和其它類似SQL的平台的一個鮮明的對比, 在那些平台上,你可以在前面先獲取你查詢結果的一部分,然后如果你想獲取結果的剩余部分,你必須繼續返回服務端去取,這個過程使用一種有狀態的服務器端游 標技術。
介紹查詢語言
Elasticsearch提供一種JSON風格的特定領域語言,利用它你可以執行查詢。這杯稱為查詢DSL。這個查詢語言相當全面,第一眼看上去可能有些咄咄逼人,但是最好的學習方法就是以幾個基礎的例子來開始。
回到我們上一個例子,我們執行了這個查詢:
{
"query": { "match_all": {} }
}
分解以上的這個查詢,其中的query部分告訴我查詢的定義,match_all部分就是我們想要運行的查詢的類型。match_all查詢,就是簡單地查詢一個指定索引下的所有的文檔。
除了這個query參數之外,我們也可以通過傳遞其它的參數來影響搜索結果。比如,下面做了一次match_all並只返回第一個文檔:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_all": {} },
"size": 1
}'
注意,如果沒有指定size的值,那么它默認就是10。
下面的例子,做了一次match_all並且返回第11到第20個文檔:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_all": {} },
"from": 10,
"size": 10
}'
其中的from參數(0-based)從哪個文檔開始,size參數指明從from參數開始,要返回多少個文檔。這個特性對於搜索結果分頁來說非常有幫助。注意,如果不指定from的值,它默認就是0。
下面這個例子做了一次match_all並且以賬戶余額降序排序,最后返前十個文檔:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_all": {} },
"sort": { "balance": { "order": "desc" } }
}'
執行搜索
現在我們已經知道了幾個基本的參數,讓我們進一步發掘查詢語言吧。首先我們看一下返回文檔的字段。默認情況下,是返回完整的JSON文檔的。這可以通過 source來引用(搜索hits中的_sourcei字段)。如果我們不想返回完整的源文檔,我們可以指定返回的幾個字段。
下面這個例子說明了怎樣返回兩個字段account_number和balance(當然,這兩個字段都是指_source中的字段),以下是具體的搜索:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_all": {} },
"_source": ["account_number", "balance"]
}'
注意到上面的例子僅僅是簡化了_source字段。它仍將會返回一個叫做_source的字段,但是僅僅包含account_number和balance來年改革字段。
如果你有SQL背景,上述查詢在概念上有些像SQL的SELECT FROM。
現在讓我們進入到查詢部分。之前,我們看到了match_all查詢是怎樣匹配到所有的文檔的。現在我們介紹一種新的查詢,叫做match查詢,這可以看成是一個簡單的字段搜索查詢(比如對應於某個或某些特定字段的搜索)。
下面這個例子返回賬戶編號為20的文檔:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match": { "account_number": 20 } }
}'
下面這個例子返回地址中包含“mill”的所有賬戶:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match": { "address": "mill" } }
}'
下面這個例子返回地址中包含“mill”或者包含“lane”的賬戶:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match": { "address": "mill lane" } }
}'
下面這個例子是match的變體(match_phrase),它會去匹配短語“mill lane”:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": { "match_phrase": { "address": "mill lane" } }
}'
現在,讓我們介紹一下布爾查詢。布爾查詢允許我們利用布爾邏輯將較小的查詢組合成較大的查詢。
現在這個例子組合了兩個match查詢,這個組合查詢返回包含“mill”和“lane”的所有的賬戶:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": {
"bool": {
"must": [
{ "match": { "address": "mill" } },
{ "match": { "address": "lane" } }
]
}
}
}'
在上面的例子中,bool must語句指明了,對於一個文檔,所有的查詢都必須為真,這個文檔才能夠匹配成功。
相反的,下面的例子組合了兩個match查詢,它返回的是地址中包含“mill”或者“lane”的所有的賬戶:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": {
"bool": {
"should": [
{ "match": { "address": "mill" } },
{ "match": { "address": "lane" } }
]
}
}
}'
在上面的例子中,bool should語句指明,對於一個文檔,查詢列表中,只要有一個查詢匹配,那么這個文檔就被看成是匹配的。
現在這個例子組合了兩個查詢,它返回地址中既不包含“mill”,同時也不包含“lane”的所有的賬戶信息:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": {
"bool": {
"must_not": [
{ "match": { "address": "mill" } },
{ "match": { "address": "lane" } }
]
}
}
}'
在上面的例子中, bool must_not語句指明,對於一個文檔,查詢列表中的的所有查詢都必須都不為真,這個文檔才被認為是匹配的。
我們可以在一個bool查詢里一起使用must、should、must_not。此外,我們可以將bool查詢放到這樣的bool語句中來模擬復雜的、多等級的布爾邏輯。
下面這個例子返回40歲以上並且不生活在ID(daho)的人的賬戶:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": {
"bool": {
"must": [
{ "match": { "age": "40" } }
],
"must_not": [
{ "match": { "state": "ID" } }
]
}
}
}'
執行過濾器
在先前的章節中,我們跳過了文檔得分的細節(搜索結果中的_score字段)。這個得分是與我們指定的搜索查詢匹配程度的一個相對度量。得分越高,文檔越相關,得分越低文檔的相關度越低。
Elasticsearch中的所有的查詢都會觸發相關度得分的計算。對於那些我們不需要相關度得分的場景下,Elasticsearch以過濾器的形式 提供了另一種查詢功能。過濾器在概念上類似於查詢,但是它們有非常快的執行速度,這種快的執行速度主要有以下兩個原因
- 過濾器不會計算相關度的得分,所以它們在計算上更快一些
- 過濾器可以被緩存到內存中,這使得在重復的搜索查詢上,其要比相應的查詢快出許多。
為了理解過濾器,我們先來介紹“被過濾”的查詢,這使得你可以將一個查詢(像是match_all,match,bool等)和一個過濾器結合起來。作為一個例子,我們介紹一下范圍過濾器,它允許我們通過一個區間的值來過濾文檔。這通常被用在數字和日期的過濾上。
這個例子使用一個被過濾的查詢,其返回值是越在20000到30000之間(閉區間)的賬戶。換句話說,我們想要找到越大於等於20000並且小於等於30000的賬戶。
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"query": {
"filtered": {
"query": { "match_all": {} },
"filter": {
"range": {
"balance": {
"gte": 20000,
"lte": 30000
}
}
}
}
}
}'
分解上面的例子,被過濾的查詢包含一個match_all查詢(查詢部分)和一個過濾器(filter部分)。我們可以在查詢部分中放入其他查詢,在 filter部分放入其它過濾器。在上面的應用場景中,由於所有的在這個范圍之內的文檔都是平等的(或者說相關度都是一樣的),沒有一個文檔比另一個文檔 更相關,所以這個時候使用范圍過濾器就非常合適了。
通常情況下,要決定是使用過濾器還是使用查詢,你就需要問自己是否需要相關度得分。如果相關度是不重要的,使用過濾器,否則使用查詢。如果你有SQL背 景,查詢和過濾器在概念上類似於SELECT WHERE語句, although more so for filters than queries。
除了match_all, match, bool,filtered和range查詢,還有很多其它類型的查uxn/過濾器,我們這里不會涉及。由於我們已經對它們的工作原理有了基本的理解,將其應用到其它類型的查詢、過濾器上也不是件難事。
執行聚合
聚合提供了分組並統計數據的能力。理解聚合的最簡單的方式是將其粗略地等同為SQL的GROUP BY和SQL聚合函數。在Elasticsearch中,你可以在一個響應中同時返回命中的數據和聚合結果。你可以使用簡單的API同時運行查詢和多個聚 合,並以一次返回,這避免了來回的網絡通信,這是非常強大和高效的。
作為開始的一個例子,我們按照state分組,按照州名的計數倒序排序:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"size": 0,
"aggs": {
"group_by_state": {
"terms": {
"field": "state"
}
}
}
}'
在SQL中,上面的聚合在概念上類似於:
SELECT COUNT(*) from bank GROUP BY state ORDER BY COUNT(*) DESC
響應(其中一部分)是:
"hits" : {
"total" : 1000,
"max_score" : 0.0,
"hits" : [ ]
},
"aggregations" : {
"group_by_state" : {
"buckets" : [ {
"key" : "al",
"doc_count" : 21
}, {
"key" : "tx",
"doc_count" : 17
}, {
"key" : "id",
"doc_count" : 15
}, {
"key" : "ma",
"doc_count" : 15
}, {
"key" : "md",
"doc_count" : 15
}, {
"key" : "pa",
"doc_count" : 15
}, {
"key" : "dc",
"doc_count" : 14
}, {
"key" : "me",
"doc_count" : 14
}, {
"key" : "mo",
"doc_count" : 14
}, {
"key" : "nd",
"doc_count" : 14
} ]
}
}
}
我們可以看到AL(abama)有21個賬戶,TX有17個賬戶,ID(daho)有15個賬戶,依此類推。
注意我們將size設置成0,這樣我們就可以只看到聚合結果了,而不會顯示命中的結果。
在先前聚合的基礎上,現在這個例子計算了每個州的賬戶的平均余額(還是按照賬戶數量倒序排序的前10個州):
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"size": 0,
"aggs": {
"group_by_state": {
"terms": {
"field": "state"
},
"aggs": {
"average_balance": {
"avg": {
"field": "balance"
}
}
}
}
}
}'
注意,我們把average_balance聚合嵌套在了group_by_state聚合之中。這是所有聚合的一個常用模式。你可以任意的聚合之中嵌套聚合,這樣你就可以從你的數據中抽取出想要的概述。
基於前面的聚合,現在讓我們按照平均余額進行排序:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"size": 0,
"aggs": {
"group_by_state": {
"terms": {
"field": "state",
"order": {
"average_balance": "desc"
}
},
"aggs": {
"average_balance": {
"avg": {
"field": "balance"
}
}
}
}
}
}'
下面的例子顯示了如何使用年齡段(20-29,30-39,40-49)分組,然后在用性別分組,然后為每一個年齡段的每一個性別計算平均賬戶余額:
curl -XPOST 'localhost:9200/bank/_search?pretty' -d '
{
"size": 0,
"aggs": {
"group_by_age": {
"range": {
"field": "age",
"ranges": [
{
"from": 20,
"to": 30
},
{
"from": 30,
"to": 40
},
{
"from": 40,
"to": 50
}
]
},
"aggs": {
"group_by_gender": {
"terms": {
"field": "gender"
},
"aggs": {
"average_balance": {
"avg": {
"field": "balance"
}
}
}
}
}
}
}
}'
有很多關於聚合的細節,我們沒有涉及。如果你想做更進一步的實驗,http://www.elasticsearch.org/guide/en /elasticsearch/reference/current/search-aggregations.html是一個非常好的起點。
總結
Elasticsearch既是一個簡單的產品,也是一個復雜的產品。我們現在已經學習到了基礎部分,它的一些原理,以及怎樣用REST API來做一些工作。我希望這個教程已經使你對Elasticsearch是什么有了一個更好的理解,跟重要的是,能夠激發你繼續實驗 Elasticsearch的其它特性。