compose文件:
version: '2' services: consul-server: image: gliderlabs/consul-server:0.6 command: -bootstrap -advertise 192.168.10.138 hostname: consul-server ports: - "8400:8400" - "8500:8500" - "8600:53/udp" registrator: image: gliderlabs/registrator:latest command: consul://consul-server:8500 hostname: registrator depends_on: - consul-server volumes: - /var/run/docker.sock:/tmp/docker.sock app: image: tutum/hello-world:latest environment: # Environment variables used by registrator to register services in consul SERVICE_NAME: app SERVICE_TAGS: sample ports: - "8081:80" depends_on: - consul-template-nginx # Nginx Load Balancer consul-template-nginx: image: 1science/nginx:1.9.6-consul ports: - 80:80 volumes: - ./etc/consul-template:/etc/consul-tem
FROM anapsix/alpine-java:jre8 MAINTAINER firewarm LightingLiu <liuyg@liuyingguang.cn> ENV ES_PKG_NAME elasticsearch-2.3.3 ADD $ES_PKG_NAME.tar.gz /usr/share/ ADD elasticsearch/ /usr/share/$ES_PKG_NAME/ RUN cd /usr/share/ && \ mv $ES_PKG_NAME elasticsearch && \ chmod +x /usr/share/elasticsearch/bin/* ENV PATH /usr/share/elasticsearch/bin:$PATH # Define default command. CMD ["elasticsearch"] EXPOSE 9200 EXPOSE 9300
docker build -t firewarm/elasticsearch:2.3.3.1 .
docker run -v /home/elasticsearch/config:/usr/share/elast
Fluentd并非是专用于日志文件收集的,而是一个通用的信息收集、整理、转发的流式数据处理工具,日志收集只是它十分典型的一个运用场景。重要的是,Fluentd的日志收集功能对容器支持十分完备,远远胜于Logstash等传统日志收集工具。一方面得益于Fluentd社区开发了几种专用于Docker日志文件的收集插件,这些插件能够在Fluentd收集完Docker日志以后自动为它加上容器相关的信息,比较推荐其中的fluent-plugin-docker-metadata-filter这一款插件,它提供的信息颇为齐全。Logstash对于这方面依然比较空缺,GitHub上唯一能够找到的一款社区插件也已经在一年前就停止开发。另一方面,当前Docker官方支持的日志驱动除了默认的使用本地目录,还可以直接发送到远程的日志存储或日志采集服务,而其中日志采集服务目前仅仅支持Splunk和Fluentd,同样没有Logstash等老一辈开源日志工具的踪影。
[root@elk elk]# yum install java-1.8.0-openjdk -y
[root@elk elk]# wget -c https://download.elastic.co/elasticsearch/release/org/elasticsearch/distribution/rpm/elasticsearch/2.3.3/elasticsearch-2.3.3.rpm
[root@elk elk]# yum localinstall elasticsearch-2.3.3.rpm -y
.....
Installing : elasticsearch-2.3.3-1.noarch 1/1
### NOT starting on installation,
继续上篇文章java logback 向 EFK 写入日志,
此篇文章主要讲述在docker环境下EFK与logback的整合,主要解决java项目在docker环境下,向EFK输出日志的问题:
1. 上篇文章中的方法虽然可以向EFK写入日志,但是在集群环境中,无法区分容器,除非自己在日志的msg中写入相关信息,然而往往会被分词器分开,这点比较麻烦
2. 虽然上篇文章中的logback-more-appenders可以使用DataFluentAppender方式来向elasticsearch添加额外的fields,但是这里也同时存在一个问题,就是msg中的部分信息,会被拆分成多个field,导致msg信息不再完整,以及从kibana上面查看日志非常不便
下面来一起看看我是如何解决的(部分内容跟上篇文章同)
详情参考部署文档CentOS7 安装EFK(elasticsearch、fluent、kibana)进行Docker下日志搜集
源码地址:fluentd-logback-appender(此插件是我基于logback-more-appenders源码进行的改进,使得在使用FluentLogbackAppender类的时候,也可以添加额外的fields)
关于此插件的打包,这里不多做说明,相应jar包可以在刘迎光的nexus中找到,搜索“fluentd-logback-appender”即可
pom.xml文件添加依赖
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.firewarm</g