Docker:将写入容器内的日志文件发送到 ELK 堆栈
Docker: Ship log files being written inside containers to ELK stack
我是运行一个django
应用程序,使用docker
,并使用python
登录django
设置写入api日志一个日志文件夹。当我重新启动我的容器时,我的日志文件也被删除(这是可以理解的)。
我想将我的日志(例如 /path/to/workdir/logs/django.log
)发送到 elasticsearch
。我很困惑,因为我的搜索告诉我发送这条路径 /var/lib/docker/containers/*/*.log
但我认为这不是我想要的。
关于如何将容器内的日志发送到 ELK Stack 有什么想法吗?
您可以使用 gelf
日志驱动程序将日志从 docker
容器 stdout
/ stderr
发送到 elasticsearch
。
使用 gelf
日志记录驱动程序 (docker-compose.yml
) 配置服务:
version: '3.7'
x-logging:
&logstash
options:
gelf-address: "udp://localhost:12201"
driver: gelf
services:
nginx:
image: 'nginx:1.17.3'
hostname: 'nginx'
domainname: 'example.com'
depends_on:
- 'logstash'
ports:
- '80:80'
volumes:
- '${PWD}/nginx/nginx.conf:/etc/nginx/nginx.conf:ro'
logging: *logstash
elasticsearch:
image: 'elasticsearch:7.1.1'
environment:
- 'discovery.type=single-node'
volumes:
- 'elasticsearch:/usr/share/elasticsearch/data'
expose:
- '9200'
- '9300'
kibana:
image: 'kibana:7.1.1'
depends_on:
- 'elasticsearch'
ports:
- '5601:5601'
volumes:
- '${PWD}/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml'
logstash:
build: 'logstash'
depends_on:
- 'elasticsearch'
volumes:
- 'logstash:/usr/share/logstash/data'
ports:
- '12201:12201/udp'
- '10514:10514/udp'
volumes:
elasticsearch:
logstash:
注意:上面的例子使用extension fields.
配置日志记录
本例使用的minimal nginx.conf
:
user nginx;
worker_processes 1;
error_log /var/log/nginx/error.log debug;
pid /var/run/nginx.pid;
events {
worker_connections 1024;
}
http {
server {
listen 80;
server_name _;
location / {
return 200 'OK';
}
}
}
logstash
图像是使用以下 Dockerfile
:
的自定义构建
FROM logstash:7.1.1
USER 0
COPY pipeline/gelf.cfg /usr/share/logstash/pipeline
COPY pipeline/pipelines.yml /usr/share/logstash/config
COPY settings/logstash.yml /usr/share/logstash/config
COPY patterns /usr/share/logstash/patterns
RUN rm /usr/share/logstash/pipeline/logstash.conf
RUN chown -R 1000:0 /usr/share/logstash/pipeline /usr/share/logstash/patterns /usr/share/logstash/config
USER 1000
...相关的logstash
gelf
plugin 配置:
input {
gelf {
type => docker
port => 12201
}
}
filter { }
output {
if [type] == "docker" {
elasticsearch { hosts => ["elasticsearch:9200"] }
stdout { codec => rubydebug }
}
}
... 和 pipelines.yml
:
- pipeline.id: "gelf"
path.config: "/usr/share/logstash/pipeline/gelf.cfg"
... 和 logstash.yml
来持久化数据:
queue:
type: persisted
drain: true
容器中的进程运行记录到stdout
/stderr
,docker
使用gelf
将日志推送到logstash
日志记录驱动程序(注意:logstash
地址是 localhost
因为 docker
服务发现不可用于解析服务名称 - 端口必须是映射到主机并且必须使用 localhost
) 配置日志记录驱动程序,它将日志输出到 elasticsearch
,您可以在 kibana
:
中建立索引
我是运行一个django
应用程序,使用docker
,并使用python
登录django
设置写入api日志一个日志文件夹。当我重新启动我的容器时,我的日志文件也被删除(这是可以理解的)。
我想将我的日志(例如 /path/to/workdir/logs/django.log
)发送到 elasticsearch
。我很困惑,因为我的搜索告诉我发送这条路径 /var/lib/docker/containers/*/*.log
但我认为这不是我想要的。
关于如何将容器内的日志发送到 ELK Stack 有什么想法吗?
您可以使用 gelf
日志驱动程序将日志从 docker
容器 stdout
/ stderr
发送到 elasticsearch
。
使用 gelf
日志记录驱动程序 (docker-compose.yml
) 配置服务:
version: '3.7'
x-logging:
&logstash
options:
gelf-address: "udp://localhost:12201"
driver: gelf
services:
nginx:
image: 'nginx:1.17.3'
hostname: 'nginx'
domainname: 'example.com'
depends_on:
- 'logstash'
ports:
- '80:80'
volumes:
- '${PWD}/nginx/nginx.conf:/etc/nginx/nginx.conf:ro'
logging: *logstash
elasticsearch:
image: 'elasticsearch:7.1.1'
environment:
- 'discovery.type=single-node'
volumes:
- 'elasticsearch:/usr/share/elasticsearch/data'
expose:
- '9200'
- '9300'
kibana:
image: 'kibana:7.1.1'
depends_on:
- 'elasticsearch'
ports:
- '5601:5601'
volumes:
- '${PWD}/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml'
logstash:
build: 'logstash'
depends_on:
- 'elasticsearch'
volumes:
- 'logstash:/usr/share/logstash/data'
ports:
- '12201:12201/udp'
- '10514:10514/udp'
volumes:
elasticsearch:
logstash:
注意:上面的例子使用extension fields.
配置日志记录本例使用的minimal nginx.conf
:
user nginx;
worker_processes 1;
error_log /var/log/nginx/error.log debug;
pid /var/run/nginx.pid;
events {
worker_connections 1024;
}
http {
server {
listen 80;
server_name _;
location / {
return 200 'OK';
}
}
}
logstash
图像是使用以下 Dockerfile
:
FROM logstash:7.1.1
USER 0
COPY pipeline/gelf.cfg /usr/share/logstash/pipeline
COPY pipeline/pipelines.yml /usr/share/logstash/config
COPY settings/logstash.yml /usr/share/logstash/config
COPY patterns /usr/share/logstash/patterns
RUN rm /usr/share/logstash/pipeline/logstash.conf
RUN chown -R 1000:0 /usr/share/logstash/pipeline /usr/share/logstash/patterns /usr/share/logstash/config
USER 1000
...相关的logstash
gelf
plugin 配置:
input {
gelf {
type => docker
port => 12201
}
}
filter { }
output {
if [type] == "docker" {
elasticsearch { hosts => ["elasticsearch:9200"] }
stdout { codec => rubydebug }
}
}
... 和 pipelines.yml
:
- pipeline.id: "gelf"
path.config: "/usr/share/logstash/pipeline/gelf.cfg"
... 和 logstash.yml
来持久化数据:
queue:
type: persisted
drain: true
容器中的进程运行记录到stdout
/stderr
,docker
使用gelf
将日志推送到logstash
日志记录驱动程序(注意:logstash
地址是 localhost
因为 docker
服务发现不可用于解析服务名称 - 端口必须是映射到主机并且必须使用 localhost
) 配置日志记录驱动程序,它将日志输出到 elasticsearch
,您可以在 kibana
: