百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Docker上使用Elasticsearch,Logstash,Kibana

liuian 2025-06-24 15:18 24 浏览

在对一个项目做性能测试时我需要处理我们web服务器的访问日志来分析当前用户的访问情况。因此,我想这是试用ELK的一个好机会。

ELK 栈

首先要注意的是使用它是非常简单的。从决定使用ELK到在本机上搭一个可用的原型只花了几小时。下面看看它们各个部分:

Elasticsearch

Elasticsearch 是一个基于Lucene的搜索服务器,它是开源的,GitHub的地址

安装Elasticsearch只需要做一件事,下载并运行它:

  wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.4.2.tar.gz
  tar -zxvf elasticsearch-1.4.2.tar.gz
  cd elasticsearch-1.4.2
  ./bin/elasticsearch
[2015-02-11 10:43:21,573][INFO ][node                     ] [Jumbo Carnation] version[1.4.2], pid[6019], build[927caff/2014-12-16T14:11:12Z]
[2015-02-11 10:43:21,574][INFO ][node                     ] [Jumbo Carnation] initializing ...
[2015-02-11 10:43:21,578][INFO ][plugins                  ] [Jumbo Carnation] loaded , sites 
[2015-02-11 10:43:23,483][INFO ][node                     ] [Jumbo Carnation] initialized
[2015-02-11 10:43:23,483][INFO ][node                     ] [Jumbo Carnation] starting ...
[2015-02-11 10:43:23,528][INFO ][transport                ] [Jumbo Carnation] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/10.105.14.17:9300]}
[2015-02-11 10:43:23,540][INFO ][discovery                ] [Jumbo Carnation] elasticsearch/_EGLpT09SfCaIbfW4KCSqg
[2015-02-11 10:43:27,315][INFO ][cluster.service          ] [Jumbo Carnation] new_master [Jumbo Carnation][_EGLpT09SfCaIbfW4KCSqg][pumuki][inet[/10.105.14.17:9300]], reason: zen-disco-join (elected_as_master)
[2015-02-11 10:43:27,332][INFO ][http                     ] [Jumbo Carnation] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/10.105.14.17:9200]}
[2015-02-11 10:43:27,332][INFO ][node                     ] [Jumbo Carnation] started
[2015-02-11 10:43:27,783][INFO ][gateway                  ] [Jumbo Carnation] recovered [4] indices into cluster_state

上面的命令将设置Elasticsearch web server 在localhost的9200端口监听。此时,你可以访问http://localhost:9200将会看到如下信息:

  curl -XGET http://localhost:9200/{ "status" : 200, "name" : "Jumbo Carnation", "cluster_name" : "elasticsearch", "version" : { "number" : "1.4.2", "build_hash" : "927caff6f05403e936c20bf4529f144f0c89fd8c", "build_timestamp" : "2014-12-16T14:11:12Z", "build_snapshot" : false, "lucene_version" : "4.10.2" }, "tagline" : "You Know, for Search" }

也可以查看统计信息:
http://localhost:9200/_stats

<span></span><span>  curl -XGET http://localhost:9200/_stats</span>
<span><span>{"_shards":{"total":0,"successful":0,"failed":0},"_all":{"primaries":{},"total":{}},"indices":{}}</span></span>

在测试时我处理了多次不同的日志,因此为了清除elasticsearch实例中的信息,我发现下面这个命令非常有用,它将清空你所有的数据,所以要当心喽。

<span></span><span>  curl -XDELETE "http://localhost:9200/*"</span>
<span><span>{"acknowledged":true}</span></span>

Logstash

Logstash是一个管理事件和日志的工具。基本上用 于收集,解析和存储日志。当和Elasticsearch一起使用时,你可以发送结构化的处理日志给Elasticsearch去查询。它同样也是开源的,它是elasticsearch家族的一部分,它的源码在Github project repo.

你需要去下载安装包以用于安装:

<span></span><span>  wget https://download.elasticsearch.org/logstash/logstash/logstash-1.4.2.tar.gz</span>
<span><span></span><span>  tar -zxvf logstashh-1.4.2.tar.gz</span></span>
<span><span></span><span>  cd logstash-1.4.2</span></span>

为了处理你的访问日志并将它们发送到Elasticsearch,你需要创建logstash配置文件。我的配置文件与下面的类似:

<span></span><span>  cat logstash_simple.conf </span>
<span><span>input {</span></span>
<span><span>  file {</span></span>
<span><span>  path => "/var/log/access/*.log"</span></span>
<span><span>  type => "apache_access"</span></span>
<span><span>  }</span></span>
<span><span>}</span></span>
<span><span>filter {</span></span>
<span><span>  if [path] =~ "access" {</span></span>
<span><span>  mutate { replace => { "type" => "apache_access" } }</span></span>
<span><span>  grok {</span></span>
<span><span>  match => { "message" => "%{COMBINEDAPACHELOG}" }</span></span>
<span><span>  date {</span></span>
<span><span>  match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]</span></span>
<span><span>output {</span></span>
<span><span>  elasticsearch_http {</span></span>
<span><span>  host => localhost </span></span>
<span><span> } </span></span>
<span><span> stdout { </span></span>
<span><span></span></span>

在input配置节,定义了哪些日志需要logstash处理。你可以定义不同类型的input,但我们基本上都从文件中获取。在文档页可以查看其它类型的input.

在过滤器配置节,Filter定义了logstash将如何处理你的日志。我们使用grok,它就像是一个用于非结构化数据的正则解析器。我们只使用了%{COMBINEDAPACHELOG} 正则并设置了日期的格式。

在输出配置节output,我已创建了两个输出。我们Elasticsearch实例和标准输出,基本上用于查看发生了什么。

使用下面命令去启动Logstash:

<span></span><span>  bin/logstash -f logstash_simple.conf</span>

Kibana

Kibana是一个在elasticsearch之上的一个数据可视化工具。Github 项目。

只需要下载然后运行它:

<span></span><span>  wget https://download.elasticsearch.org/kibana/kibana/kibana-4.0.0-beta3.tar.gz</span>
<span><span></span><span>  tar -zxvf kibana-4.0.0-beta3.tar.gz</span></span>
<span><span></span><span>  cd kibana-4.0.0-beta3</span></span>
<span><span></span><span>  bin/kibana</span></span>
<span><span>The Kibana Backend is starting up... be patient</span></span>
<span><span>{"@timestamp":"2015-02-11T12:34:29+00:00","level":"INFO","name":"Kibana","message":"Kibana server started on tcp://0.0.0.0:5601 in production mode."}</span></span>

然后,Kibana将会运行在localhost的5601端口。

第一页会要求你创建索引。如果没有任何数据你将不能创建索引。一早你创建好了索引你就可以开始查询数据了。

Deploy部署

一旦这个ELK栈在本地运行,我认为将它部署到我们的box上,并且持续的发送我们的访问日志以使日志不断保持更新。

我也认为创建一个Docker容器以使它在未来可以轻易复制是非常可行的。

首选方法,在一个地方去运行所有ELK。

我的首选 方法是创建一个在其之上运行ELK三个服务的单一容器。我知道那不是你愿意使用Docker的方式,但我还想是先试试。

所以,我的想法是,让所有的东西和监控一起运行在Docker容器上,并增加一个容器的数据卷让logstash从中读取使用的文件。 代码在Githb repo上。

创建映像

作为关于Docker的第一个文章,我将会解释下如何去创建映像。映像早由一个基本的ubuntu创建的,你所要做的基本就是创建一个Dockfile,链接在这里.

只需执行下面的命令来构建容器:

<span></span><span>  docker build -t elk:latest .</span>

这将创建一个本地可执行的映像。通过下面命令可以查看所有映像:

<span></span><span>  docker images</span>
<span><span>REPOSITORY  TAG  IMAGE ID  CREATED  VIRTUAL SIZE</span></span>
<span><span>elk  latest  28bf7af29dc1  55 seconds ago  575.7 MB</span></span>

运行映像

映像构建后就可以执行它:

  docker run -d -p 5000:5601 --name elk -v /path/access-logs:/var/log/access elk

这将映射容器的5601(kibana)端口到你本地5000端口,并添加你本的/path/acces-logs到容器中。这个路径就是你想要记录的访问日志的路径。

TODO,后续工作

映像,分离的容器,将映像推送到docker hub.

相关推荐

教你把多个视频合并成一个视频的方法

一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...

零代码编程:用kimichat合并一个文件夹下的多个文件

一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...

Java APT_java APT 生成代码

JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...

Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器

在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...

挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?

如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...

五年后,谷歌还在全力以赴发展 Kotlin

作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...

kotlin和java开发哪个好,优缺点对比

Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...

移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?

掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...

颜值非常高的XShell替代工具Termora,不一样的使用体验!

Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...

预处理的底层原理和预处理编译运行异常的解决方案

若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...

为“架构”再建个模:如何用代码描述软件架构?

在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...

深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型

2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...

比分网开发技术栈与功能详解_比分网有哪些

一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...

设计模式之-生成器_一键生成设计

一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...

构建第一个 Kotlin Android 应用_kotlin简介

第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...