Docker上使用Elasticsearch,Logstash,Kibana
liuian 2025-06-24 15:18 4 浏览
在对一个项目做性能测试时我需要处理我们web服务器的访问日志来分析当前用户的访问情况。因此,我想这是试用ELK的一个好机会。
ELK 栈
首先要注意的是使用它是非常简单的。从决定使用ELK到在本机上搭一个可用的原型只花了几小时。下面看看它们各个部分:
Elasticsearch
Elasticsearch 是一个基于Lucene的搜索服务器,它是开源的,GitHub的地址
安装Elasticsearch只需要做一件事,下载并运行它:
wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.4.2.tar.gz tar -zxvf elasticsearch-1.4.2.tar.gz cd elasticsearch-1.4.2 ./bin/elasticsearch [2015-02-11 10:43:21,573][INFO ][node ] [Jumbo Carnation] version[1.4.2], pid[6019], build[927caff/2014-12-16T14:11:12Z] [2015-02-11 10:43:21,574][INFO ][node ] [Jumbo Carnation] initializing ... [2015-02-11 10:43:21,578][INFO ][plugins ] [Jumbo Carnation] loaded , sites [2015-02-11 10:43:23,483][INFO ][node ] [Jumbo Carnation] initialized [2015-02-11 10:43:23,483][INFO ][node ] [Jumbo Carnation] starting ... [2015-02-11 10:43:23,528][INFO ][transport ] [Jumbo Carnation] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/10.105.14.17:9300]} [2015-02-11 10:43:23,540][INFO ][discovery ] [Jumbo Carnation] elasticsearch/_EGLpT09SfCaIbfW4KCSqg [2015-02-11 10:43:27,315][INFO ][cluster.service ] [Jumbo Carnation] new_master [Jumbo Carnation][_EGLpT09SfCaIbfW4KCSqg][pumuki][inet[/10.105.14.17:9300]], reason: zen-disco-join (elected_as_master) [2015-02-11 10:43:27,332][INFO ][http ] [Jumbo Carnation] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/10.105.14.17:9200]} [2015-02-11 10:43:27,332][INFO ][node ] [Jumbo Carnation] started [2015-02-11 10:43:27,783][INFO ][gateway ] [Jumbo Carnation] recovered [4] indices into cluster_state
上面的命令将设置Elasticsearch web server 在localhost的9200端口监听。此时,你可以访问http://localhost:9200将会看到如下信息:
curl -XGET http://localhost:9200/{ "status" : 200, "name" : "Jumbo Carnation", "cluster_name" : "elasticsearch", "version" : { "number" : "1.4.2", "build_hash" : "927caff6f05403e936c20bf4529f144f0c89fd8c", "build_timestamp" : "2014-12-16T14:11:12Z", "build_snapshot" : false, "lucene_version" : "4.10.2" }, "tagline" : "You Know, for Search" }
也可以查看统计信息:
http://localhost:9200/_stats
<span></span><span> curl -XGET http://localhost:9200/_stats</span>
<span><span>{"_shards":{"total":0,"successful":0,"failed":0},"_all":{"primaries":{},"total":{}},"indices":{}}</span></span>
在测试时我处理了多次不同的日志,因此为了清除elasticsearch实例中的信息,我发现下面这个命令非常有用,它将清空你所有的数据,所以要当心喽。
<span></span><span> curl -XDELETE "http://localhost:9200/*"</span>
<span><span>{"acknowledged":true}</span></span>
Logstash
Logstash是一个管理事件和日志的工具。基本上用 于收集,解析和存储日志。当和Elasticsearch一起使用时,你可以发送结构化的处理日志给Elasticsearch去查询。它同样也是开源的,它是elasticsearch家族的一部分,它的源码在Github project repo.
你需要去下载安装包以用于安装:
<span></span><span> wget https://download.elasticsearch.org/logstash/logstash/logstash-1.4.2.tar.gz</span>
<span><span></span><span> tar -zxvf logstashh-1.4.2.tar.gz</span></span>
<span><span></span><span> cd logstash-1.4.2</span></span>
为了处理你的访问日志并将它们发送到Elasticsearch,你需要创建logstash配置文件。我的配置文件与下面的类似:
<span></span><span> cat logstash_simple.conf </span>
<span><span>input {</span></span>
<span><span> file {</span></span>
<span><span> path => "/var/log/access/*.log"</span></span>
<span><span> type => "apache_access"</span></span>
<span><span> }</span></span>
<span><span>}</span></span>
<span><span>filter {</span></span>
<span><span> if [path] =~ "access" {</span></span>
<span><span> mutate { replace => { "type" => "apache_access" } }</span></span>
<span><span> grok {</span></span>
<span><span> match => { "message" => "%{COMBINEDAPACHELOG}" }</span></span>
<span><span> date {</span></span>
<span><span> match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]</span></span>
<span><span>output {</span></span>
<span><span> elasticsearch_http {</span></span>
<span><span> host => localhost </span></span>
<span><span> } </span></span>
<span><span> stdout { </span></span>
<span><span></span></span>
在input配置节,定义了哪些日志需要logstash处理。你可以定义不同类型的input,但我们基本上都从文件中获取。在文档页可以查看其它类型的input.
在过滤器配置节,Filter定义了logstash将如何处理你的日志。我们使用grok,它就像是一个用于非结构化数据的正则解析器。我们只使用了%{COMBINEDAPACHELOG} 正则并设置了日期的格式。
在输出配置节output,我已创建了两个输出。我们Elasticsearch实例和标准输出,基本上用于查看发生了什么。
使用下面命令去启动Logstash:
<span></span><span> bin/logstash -f logstash_simple.conf</span>
Kibana
Kibana是一个在elasticsearch之上的一个数据可视化工具。Github 项目。
只需要下载然后运行它:
<span></span><span> wget https://download.elasticsearch.org/kibana/kibana/kibana-4.0.0-beta3.tar.gz</span>
<span><span></span><span> tar -zxvf kibana-4.0.0-beta3.tar.gz</span></span>
<span><span></span><span> cd kibana-4.0.0-beta3</span></span>
<span><span></span><span> bin/kibana</span></span>
<span><span>The Kibana Backend is starting up... be patient</span></span>
<span><span>{"@timestamp":"2015-02-11T12:34:29+00:00","level":"INFO","name":"Kibana","message":"Kibana server started on tcp://0.0.0.0:5601 in production mode."}</span></span>
然后,Kibana将会运行在localhost的5601端口。
第一页会要求你创建索引。如果没有任何数据你将不能创建索引。一早你创建好了索引你就可以开始查询数据了。
Deploy部署
一旦这个ELK栈在本地运行,我认为将它部署到我们的box上,并且持续的发送我们的访问日志以使日志不断保持更新。
我也认为创建一个Docker容器以使它在未来可以轻易复制是非常可行的。
首选方法,在一个地方去运行所有ELK。
我的首选 方法是创建一个在其之上运行ELK三个服务的单一容器。我知道那不是你愿意使用Docker的方式,但我还想是先试试。
所以,我的想法是,让所有的东西和监控一起运行在Docker容器上,并增加一个容器的数据卷让logstash从中读取使用的文件。 代码在Githb repo上。
创建映像
作为关于Docker的第一个文章,我将会解释下如何去创建映像。映像早由一个基本的ubuntu创建的,你所要做的基本就是创建一个Dockfile,链接在这里.
只需执行下面的命令来构建容器:
<span></span><span> docker build -t elk:latest .</span>
这将创建一个本地可执行的映像。通过下面命令可以查看所有映像:
<span></span><span> docker images</span>
<span><span>REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE</span></span>
<span><span>elk latest 28bf7af29dc1 55 seconds ago 575.7 MB</span></span>
运行映像
映像构建后就可以执行它:
docker run -d -p 5000:5601 --name elk -v /path/access-logs:/var/log/access elk
这将映射容器的5601(kibana)端口到你本地5000端口,并添加你本的/path/acces-logs到容器中。这个路径就是你想要记录的访问日志的路径。
TODO,后续工作
映像,分离的容器,将映像推送到docker hub.
相关推荐
- 谷歌Gemini 2.5全线爆发!勇战濒死恐慌,却被宝可梦吓到当场宕机
-
编辑:定慧桃子【新智元导读】今天,谷歌旗舰Gemini2.5三箭齐发,首次亮相轻量版2.5Flash-Lite。最新70页技术报告中,爆料了Gemini2.5在玩宝可梦濒死时,惊现类人的恐慌,...
- Claude 4系列模型正式发布,号称“世界上最好的”AI编程模型
-
当地时间5月22日,Anthropic在其首次开发者大会上,正式发布了其下一代Claude模型系列:ClaudeOpus4和ClaudeSonnet4。该公司在公告中高调宣称,...
- p5.js 中文入门教程(p5js和js怎么转换)
-
本文简介点赞+关注+收藏=学会了本文的目标是和各位工友一起有序的快速上手p5.js,会讲解p5.js的基础用法。本文会涉及到的内容包括:项目搭建p5.js基础2D图形文字图形样式...
- ElasticSearch中文分词插件(IK)安装
-
坚持原创,共同进步!请关注我,后续分享更精彩!!!前言ElasticSearch默认的分词插件对中文支持很不友好。一段话按规则会以每个中文字符来拆解,再分别建立倒排索引。如"中华人民共和国国歌...
- ELK 教程 - 发现、分析和可视化你的数据
-
【注】本文译自:ELKStackTutorial-GettingStartedWithELKStack|Edureka随着越来越多的IT基础设施转身云计算,对公共云安全工具...
- 网络安全事件技术排查(网络安全事件排查有哪些因素)
-
1.文件分析a)文件日期与异常文件检测文件时间检查:Windows:通过文件属性查看创建/修改时间,但需注意攻击者可能伪造时间(如使用工具修改文件时间戳)。Linux:使用ls-l或sta...
- 日志文件转运工具Filebeat笔记(日志文件生成原理)
-
一、概述与简介Filebeat是一个日志文件转运工具,在服务器上以轻量级代理的形式安装客户端后,Filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件(追踪文件的变化,不停的读),并将来自...
- Spring Boot 分布式系统中的日志打印设计:实战指南
-
在分布式系统中,日志是排查问题、监控系统状态和进行事后分析的“生命线”。然而,随着微服务架构的普及,日志的管理和检索变得愈发复杂。尤其是在生产环境中,当问题发生时,如何快速定位相关日志成为了一个关键挑...
- Loki日志系统取代ELK?(日志系统 elk)
-
一、Loki是什么?Loki是由GrafanaLabs开源的一个水平可扩展、高可用性,多租户的日志聚合系统的日志聚合系统。它的设计初衷是为了解决在大规模分布式系统中,处理海量日志的问题。Loki采用...
- 20 个最热门的 MCP Server,收藏备用!
-
1.GitHubMCPServer功能:代码仓库管理、自动化代码审查、处理拉取请求(PR)、Issue跟踪。项目地址:https://docs.github.com/en/rest核心架构:基于...
- ElasticSearch实现数据模糊搜索(el-select模糊搜索)
-
关注我的微信公众号:后端技术漫谈不定期推送关于后端开发、爬虫、算法题、数据结构方面的原创技术文章,以及生活中的逸闻趣事。我目前是一名后端开发工程师。主要关注后端开发,数据安全,网络爬虫,物联网,边缘计...
- Linux 日志系统维护的实战示例(linux 日志文件系统)
-
Linux日志系统维护的实战示例,涵盖常见场景和工具:1.日志轮转与清理(Logrotate)问题:系统/var/log空间不足,需定期切割和清理旧日志。实战步骤:检查默认配置Logrotat...
- 日志分析平台——ELK安装配置(elk日志解析)
-
简介:ELK是(Elasticsearch、Logstash、Kibana)三个软件的集合简称。那么这三个软件分别扮演着一个什么样的角色呢?Elasticsearch:搜索引擎,主要任务是将日志索引并...
- Docker上使用Elasticsearch,Logstash,Kibana
-
在对一个项目做性能测试时我需要处理我们web服务器的访问日志来分析当前用户的访问情况。因此,我想这是试用ELK的一个好机会。ELK栈首先要注意的是使用它是非常简单的。从决定使用ELK到在本机上搭一个...
- .NET Core 性能监控(.net core性能对比)
-
一、.NETCore性能监控的重要性随着.NETCore应用程序的广泛应用,性能监控成为了保障应用稳定运行的关键环节。性能监控可以帮助开发者实时掌握应用状态,快速定位问题所在,并采取相应的...
- 一周热门
-
-
Python实现人事自动打卡,再也不会被批评
-
Psutil + Flask + Pyecharts + Bootstrap 开发动态可视化系统监控
-
【验证码逆向专栏】vaptcha 手势验证码逆向分析
-
一个解决支持HTML/CSS/JS网页转PDF(高质量)的终极解决方案
-
再见Swagger UI 国人开源了一款超好用的 API 文档生成框架,真香
-
网页转成pdf文件的经验分享 网页转成pdf文件的经验分享怎么弄
-
C++ std::vector 简介
-
python使用fitz模块提取pdf中的图片
-
《人人译客》如何规划你的移动电商网站(2)
-
Jupyterhub安装教程 jupyter怎么安装包
-
- 最近发表
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- table.render (33)
- uniapp textarea (33)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)