1、進入github中ik分詞器源碼地址里下載包
點擊 tages

根據自己安裝的 es 版本進行對號入座(我的是7.8.0,所以這里我就選擇7.8.0)

點擊版本號進入了下載頁面后,點擊zip包下載

2、將 ik分詞器 的文件復制到 容器內部
首先,你需要在服務器上的某個文件夾里面建一個 目錄 ik,然后把壓縮包里的內容全部都放進去

接着執行docker cp命令,將 ik 文件夾復制到容器中的 plugins 文件夾中
以下命令記得修改容器名,命令中的 es 指的是容器名
docker cp /working/elasticsearch/plugins/ik es:/usr/share/elasticsearch/plugins
根據自己宿主機的實際地址,修改 /working/elasticsearch/plugins 這一段路徑
命令執行完之后,可進入容器中查看一下是否已經存在文件
docker exec -it es /bin/bash
cd plugins
ls

docker restart es 重啟容器
使用 kibana 驗證是否配置成功
GET _analyze
{
"analyzer": "ik_smart",
"text": ["我愛我的祖國,並且我還深愛着你"]
}
GET _analyze
{
"analyzer": "ik_max_word",
"text": ["我愛我的祖國,並且我還深愛着你"]
}
