ElasticSearch分頁


from + size 淺分頁

"淺"分頁可以理解為簡單意義上的分頁。它的原理很簡單,就是查詢前20條數據,然后截斷前10條,只返回10-20的數據。這樣其實白白浪費了前10條的查詢。

GET test_dev/_search
{
  "query": {
    "bool": {
      "filter": [
        {
          "term": {
            "age": 28
          }
        }
      ]
    }
  },
  "size": 10,
  "from": 20,
  "sort": [
    {
      "timestamp": {
        "order": "desc"
      },
      "_id": {
        "order": "desc"
      }
    }
  ]
}
  • 其中,from定義了目標數據的偏移值,size定義當前返回的數目。默認from為0,size為10,即所有的查詢默認僅僅返回前10條數據。

  • 在這里有必要了解一下from/size的原理:因為es是基於分片的,假設有5個分片,from=100,size=10。則會根據排序規則從5個分片中各取回100條數據,然后匯總成500條數據后選擇最前面的10條數據。

  • 做過測試,越往后的分頁,執行的效率越低。總體上會隨着from的增加,消耗時間也會增加。而且數據量越大,就越明顯

scroll 深分頁

from+size查詢在10000-50000條數據(1000到5000頁)以內的時候還是可以的,但是如果數據過多的話,就會出現性能問題。
為了解決此問題,elasticsearch提出了一個scroll滾動的方式。
scroll 類似於sql中的cursor,使用scroll,每次只能獲取一頁的內容,然后會返回一個scroll_id。根據返回的這個scroll_id可以不斷地獲取下一頁的內容,所以scroll並不適用於有跳頁的情景。

GET test_dev/_search?scroll=5m
{
  "query": {
    "bool": {
      "filter": [
        {
          "term": {
            "age": 28
          }
        }
      ]
    }
  },
  "size": 10,
  "from": 0,
  "sort": [
    {
      "timestamp": {
        "order": "desc"
      },
      "_id": {
        "order": "desc"
      }
    }
  ]
}
  • scroll=5m表示設置scroll_id保留5分鍾可用。
  • 使用scroll必須要將from設置為0。
  • size決定后面每次調用_search搜索返回的數量
  • 通過數據返回的_scroll_id讀取下一頁內容,每次請求將會讀取下10條數據,直到數據讀取完畢或者scroll_id保留時間截止
GET _search/scroll
{
  "scroll_id": "DnF1ZXJ5VGhlbkZldGNoBQAAAAAAAJZ9Fnk1d......",
  "scroll": "5m"
}

注意:請求的接口不再使用索引名了,而是 _search/scroll,其中GET和POST方法都可以使用。

  • scroll刪除
    根據官方文檔的說法,scroll的搜索上下文會在scroll的保留時間截止后自動清除,但是我們知道scroll是非常消耗資源的,所以一個建議就是當不需要了scroll數據的時候,盡可能快的把scroll_id顯式刪除掉。

清除指定的scroll_id:

DELETE _search/scroll/DnF1ZXJ5VGhlbkZldGNo.....

清除所有的scroll:

DELETE _search/scroll/_all

search_after 深分頁

scroll 的方式,官方的建議不用於實時的請求(一般用於數據導出),因為每一個 scroll_id 不僅會占用大量的資源,而且會生成歷史快照,對於數據的變更不會反映到快照上。

search_after 分頁的方式是根據上一頁的最后一條數據來確定下一頁的位置,同時在分頁請求的過程中,如果有索引數據的增刪改查,這些變更也會實時的反映到游標上。但是需要注意,因為每一頁的數據依賴於上一頁最后一條數據,所以無法跳頁請求。

為了找到每一頁最后一條數據,每個文檔必須有一個全局唯一值,官方推薦使用 _uid 作為全局唯一值,其實使用業務層的 id 也可以。

GET test_dev/_search
{
  "query": {
    "bool": {
      "filter": [
        {
          "term": {
            "age": 28
          }
        }
      ]
    }
  },
  "size": 20,
  "from": 0,
  "sort": [
    {
      "timestamp": {
        "order": "desc"
      },
      "_id": {
        "order": "desc"
      }
    }
  ]
}
  • 使用search_after必須要設置from=0。
  • 這里我使用timestamp和_id作為唯一值排序。
  • 我們在返回的最后一條數據里拿到sort屬性的值傳入到search_after。

使用sort返回的值搜索下一頁:

GET test_dev/_search
{
  "query": {
    "bool": {
      "filter": [
        {
          "term": {
            "age": 28
          }
        }
      ]
    }
  },
  "size": 10,
  "from": 0,
  "search_after": [
    1541495312521,
    "d0xH6GYBBtbwbQSP0j1A"
  ],
  "sort": [
    {
      "timestamp": {
        "order": "desc"
      },
      "_id": {
        "order": "desc"
      }
    }
  ]
}

修改默認分頁限制值10000

可以使用下面的方式來改變ES默認深度分頁的index.max_result_window 最大窗口值

curl -XPUT http://127.0.0.1:9200/my_index/_settings -d '{ "index" : { "max_result_window" : 500000}}'

其中my_index為要修改的index名,500000為要調整的新的窗口數。將該窗口調整后,便可以解決無法獲取到10000條后數據的問題。

注意事項
通過上述的方式解決了我們的問題,但也引入了另一個需要我們注意的問題,窗口值調大了后,雖然請求到分頁的數據條數更多了,但它是用犧牲更多的服務器的內存、CPU資源來換取的。要考慮業務場景中過大的分頁請求,是否會造成集群服務的OutOfMemory問題。

獲取總數據量

修改最大限制值之后確實可以使from+size查詢到更后面頁的數據(10000之后),但是每次查詢得到的總數量最大任然是10000,要想獲取大於1萬的查詢數據量,可以分兩步查詢,第一步使用scroll查詢獲取總數據量;第二步使用from+size查詢每頁的數據,並設置分頁。這樣即解決了from+size無法查詢10000之后的數據,也解決了scroll無法跳頁的問題。

使用scroll可能遇到的問題:

Caused by: org.elasticsearch.ElasticsearchException: Trying to create too many scroll contexts.
 Must be less than or equal to: [500]. 
This limit can be set by changing the [search.max_open_scroll_context] setting.
  • 這個報錯是從es的日志文件中查出來的,大致意思是:嘗試創建更多的scroll對象失敗了,scroll對象總數量應該控制在500以內。可修改search.max_open_scroll_context的值來改變500這個閾值。
  • 原因:通過scroll 深分頁可知道,es服務端會在內存中生成一個scroll_id對象,並會為該值指定過期時間,翻頁的時候使用scroll_id來獲取下一頁的數據。默認情況下,一個實例下面僅可以創建最多500個scroll上下文對象,也就是500個scroll_id。報此錯誤的原因就是創建scroll上下文對象失敗,因為當前已經存在500個這樣的對象了。
  • 解決辦法:
    • 通過觀察可以發現,即使不做任何的處理,過一會就又可以發起scroll請求了,這是因為時間超過了scroll生命周期時間,scroll對象自己死掉了一些。
    • 按照提示說的,修改search.max_open_scroll_context的值
put   http://{{es-host}}/_cluster/settings
{
    "persistent": {
        "search.max_open_scroll_context": 5000
    },
    "transient": {
        "search.max_open_scroll_context": 5000
    }
}
  • 在使用完scroll_id之后立即調用刪除接口,刪除該scroll對象

引用

  • 互聯網...


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM