步骤:
1.在虚拟机目录下新建docker-compose.yml
文件,然后进入yml文件编辑
1
|
vi docker-compose.yml |
2.在yml文件中添加如下代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
version: "3.1" services: elasticsearch: image: daocloud.io /library/elasticsearch :6.5.4 restart: always container_name: elasticsearch ports: - 9200:9200 #将分词器映射到容器内部 volumes: - . /ik : /usr/share/elasticsearch/plugins/ik image: daocloud.io /library/kibana :6.5.4 restart: always container_name: kibana ports: - 5601:5601 environment: #此处的地址填写虚拟机的ip地址 - elasticsearch_url=http: //192 .168.199.109:9200 depends_on: - elasticsearch |
3.按下 Esc : wq 保存并退出yml文件 4.在当前目录新建ik文件夹(与docker-compose.yml同级) 5.安装unzip软件:
1
|
yum install zip |
6.将elasticsearch-analysis-ik-6.5.4.zip拷贝到虚拟机(推荐使用MobaXterm_Personal软件,直接把压缩包从本地电脑拉到虚拟机即可),去拷贝过来的elasticsearch-analysis-ik-6.5.4.zip所在的目录执行解压命令
1
|
unzip elasticsearch-analysis-ik-6.5.4.zip -d /usr/local/elasticsearch/ik |
7.回到刚才新建的docker-compose.yml文件所在目录,执行命令:
1
|
docker-compose up -d |
这样elasticsearch以及kibana分词器就装好啦!!!而且kibana是装在docker容器内部的,不会因为执行docker down命令而消失
到此这篇关于如何在docker容器内部安装kibana分词器的文章就介绍到这了,更多相关docker安装kibana分词器内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://blog.csdn.net/sky11kobe/article/details/109128799