docker下遷移elasticsearch問題以及解決方案
docker下遷移elasticsearch問題及解決
直接上圖,大致就是這樣的操作
數(shù)據(jù)掛載
對于服務器A下的es如果你沒有在啟動容器的時候?qū)?shù)據(jù)掛載出來,就需要先進行docker cp,將容器中的數(shù)據(jù)拷貝到服務器中,/usr/share/elasticsearch/data
將取出的數(shù)據(jù),或者說掛載的數(shù)據(jù),傳輸?shù)搅硗庖粋€服務器中,執(zhí)行啟動命令
警告:這里最好版本不要變動,以及啟動時候的命令也和原服務器一致
至此遷移差不多就完成了。
報錯解決
權限問題
java.lang.IllegalStateException: failed to obtain node locks, tried [[/usr/share/elasticsearch/data]] with lock id [0]; maybe these locations are not writable or multiple nodes were started without increasing [node.max_local_storage_nodes] (was [1])?
Likely root cause: java.nio.file.NoSuchFileException: /usr/share/elasticsearch/data/nodes/0/node.lock
at java.base/sun.nio.fs.UnixException.translateToIOException(UnixException.java:92)
at java.base/sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:106)
at java.base/sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:111)
at java.base/sun.nio.fs.UnixPath.toRealPath(UnixPath.java:825)
at org.apache.lucene.store.NativeFSLockFactory.obtainFSLock(NativeFSLockFactory.java:108)
at org.apache.lucene.store.FSLockFactory.obtainLock(FSLockFactory.java:41)
at org.apache.lucene.store.BaseDirectory.obtainLock(BaseDirectory.java:45)
at org.elasticsearch.env.NodeEnvironment$NodeLock.<init>(NodeEnvironment.java:229)
at org.elasticsearch.env.NodeEnvironment.<init>(NodeEnvironment.java:298)
at org.elasticsearch.node.Node.<init>(Node.java:427)
at org.elasticsearch.node.Node.<init>(Node.java:309)
at org.elasticsearch.bootstrap.Bootstrap$5.<init>(Bootstrap.java:234)
at org.elasticsearch.bootstrap.Bootstrap.setup(Bootstrap.java:234)
at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:434)
at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:166)
at org.elasticsearch.bootstrap.Elasticsearch.execute(Elasticsearch.java:157)
at org.elasticsearch.cli.EnvironmentAwareCommand.execute(EnvironmentAwareCommand.java:77)
at org.elasticsearch.cli.Command.mainWithoutErrorHandling(Command.java:112)
at org.elasticsearch.cli.Command.main(Command.java:77)
at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:122)
at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:80)
For complete error details, refer to the log at /usr/share/elasticsearch/logs/docker-cluster.log
1. 節(jié)點鎖文件丟失:/usr/share/elasticsearch/data/nodes/0/node.lock 文件不存在。可能是因為文件未被正確創(chuàng)建,或者數(shù)據(jù)目錄的權限不足,導致 Elasticsearch 無法寫入。
2. **目錄或文件權限問題**:Elasticsearch 容器可能沒有足夠的權限訪問或修改 /usr/share/elasticsearch/data 目錄下的文件。
解決如下:
執(zhí)行以下命令,重新啟動即可
sudo chown -R 1000:1000 /acowbo/es # 假設你將 /acowbo/es 掛載到 /usr/share/elasticsearch/data sudo chmod -R 775 /acowbo/es
節(jié)點故障
2024-10-29 02:15:31.912 ERROR 1 --- [io-11919-exec-4] o.a.c.c.C.[.[.[/].[dispatcherServlet] : Servlet.service() for servlet [dispatcherServlet] in context with path [] threw exception [Request processing failed; nested exception is ElasticsearchStatusException[Elasticsearch exception [type=search_phase_execution_exception, reason=all shards failed]]] with root cause
根據(jù)錯誤日志中的信息,Elasticsearch 報告了 all shards failed 和 no_shard_available_action_exception 錯誤。
這通常表示 Elasticsearch 集群中有一個或多個分片不可用
1.執(zhí)行
curl -X GET "http://127.0.0.1:9200/_cluster/health?pretty"
這里你換為自己的ip和端口
{ "cluster_name" : "docker-cluster", "status" : "red", "timed_out" : false, "number_of_nodes" : 1, "number_of_data_nodes" : 1, "active_primary_shards" : 17, "active_shards" : 17, "relocating_shards" : 0, "initializing_shards" : 0, "unassigned_shards" : 2, "delayed_unassigned_shards" : 0, "number_of_pending_tasks" : 0, "number_of_in_flight_fetch" : 0, "task_max_waiting_in_queue_millis" : 0, "active_shards_percent_as_number" : 89.47368421052632 }
Elasticsearch 集群的 status 為 red,這表示集群中有一些分片處于未分配狀態(tài),導致集群不能正常工作。
特別是,你的集群中有 2 個未分配的分片(unassigned shards),這可能導致你遇到的 all shards failed 錯誤。
2.執(zhí)行
curl -X GET "http://156.224.28.178:9200/_cat/shards?v&pretty"
獲取詳細信息
3.查看分片未分配的原因
curl -X GET "http://156.224.28.178:9200/_cluster/allocation/explain?pretty" -H 'Content-Type: application/json' -d '{ "index": "acowbo_new", "shard": 0, "primary": true }'
4.結果如下
{ "index" : "acowbo_new", "shard" : 0, "primary" : true, "current_state" : "unassigned", "unassigned_info" : { "reason" : "ALLOCATION_FAILED", "at" : "2024-10-29T02:26:16.215Z", "failed_allocation_attempts" : 5, "details" : "failed shard on node [GoDPmTuqSBavpUAHkq6yHQ]: failed to create index, failure IllegalArgumentException[Custom Analyzer [ik_analyzer] failed to find tokenizer under name [ik_smart]]", "last_allocation_status" : "no" }, "can_allocate" : "yes", "allocate_explanation" : "can allocate the shard", "target_node" : { "id" : "GoDPmTuqSBavpUAHkq6yHQ", "name" : "47d6ff15662f", "transport_address" : "172.20.0.8:9300", "attributes" : { "ml.machine_memory" : "3973206016", "xpack.installed" : "true", "transform.node" : "true", "ml.max_open_jobs" : "512", "ml.max_jvm_size" : "268435456" } }, "allocation_id" : "kGCNR2E2SjuOTRow7OtUEA", "node_allocation_decisions" : [ { "node_id" : "GoDPmTuqSBavpUAHkq6yHQ", "node_name" : "47d6ff15662f", "transport_address" : "172.20.0.8:9300", "node_attributes" : { "ml.machine_memory" : "3973206016", "xpack.installed" : "true", "transform.node" : "true", "ml.max_open_jobs" : "512", "ml.max_jvm_size" : "268435456" }, "node_decision" : "yes", "store" : { "in_sync" : true, "allocation_id" : "kGCNR2E2SjuOTRow7OtUEA" } } ] }
從錯誤信息來看,分片未能分配的原因是由于自定義分析器 ik_analyzer 未能找到名為 ik_smart 的分詞器。
這通常意味著在 Elasticsearch 的設置中配置的 ik_analyzer 依賴于一個未安裝或未正確配置的分詞器。
解決如下:
- 進入容器
docker exec -it 容器名/容器id /bin/bash
- 執(zhí)行
bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.16.2/elasticsearch-analysis-ik-7.16.2.zip
這里需要看你的es是什么版本的,就安裝什么版本的插件
總結
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
國內(nèi)服務器配置Docker國內(nèi)源(極限加速)
本文主要介紹了國內(nèi)服務器配置Docker國內(nèi)源,用戶可以在CentOS服務器上成功安裝并使用國內(nèi)鏡像加速器來提升Docker的使用,感興趣的可以了解一下2025-02-02記 -bash: docker-compose: command not&nbs
這篇文章主要介紹了記 -bash: docker-compose: command not found 的問題解決方法,本文給大家介紹的非常詳細對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2024-01-01docker-compose配置并部署redis服務的實現(xiàn)
本文主要介紹了docker-compose配置并部署redis服務的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2022-04-04詳解docker compose搭建lnmpr環(huán)境實現(xiàn)
這篇文章主要為大家介紹了使用docker compose搭建lnmpr環(huán)境實現(xiàn)詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-11-11在Dockerfile中copy和add的區(qū)別及說明
COPY和ADD都是Dockerfile中用于文件復制的命令,但COPY僅用于本地文件或目錄的復制,不支持自動解壓縮;而ADD除了復制本地文件或目錄外,還支持解壓縮和從URL下載文件,在一般情況下,建議使用COPY命令2025-03-03