为了方便演示,我使用 vagrant 创建了两个 centos/7 的虚拟机进行演示。
这一步也可以忽略,在自己的电脑上安装 filebeat 收集本地日志发送到ELK服务器也可以。
首先创建一台用于演示用的应用服务器虚拟机,这里我们使用一个Laravel项目进行演示
mkdir app-server && cd app-server
vagrant init laravel/homestead
创建后,修改Vagrantfile
Vagrant.configure("2") do |config|
config.vm.box = "laravel/homestead"
config.vm.network "private_network", ip: "10.100.100.11"
end
启动虚拟机
# 启动虚拟机
vagrant up
# 启动后,登录到虚拟机
vagrant ssh
首先创建一台用于安装ELK服务的虚拟机
mkdir elk && cd elk
vagrant init centos/7
创建后,修改Vagrantfile
Vagrant.configure("2") do |config|
config.vm.box = "centos/7"
config.vm.network "private_network", ip: "10.100.100.10"
config.vm.provider "virtualbox" do |vb|
vb.memory = "2048"
end
end
启动虚拟机
# 启动虚拟机
vagrant up
# 启动后,登录到虚拟机
vagrant ssh
# 关闭防火墙,否则无法访问虚拟机内部的服务
sudo service firewalld stop
sudo systemctl disable firewalld
在虚拟机中,创建elk的yum仓库配置,将下面的内容保存为/etc/yum.repos.d/elk-6.repo
[logstash-6.x]
name=Elastic repository for 6.x packages
baseurl=https://artifacts.elastic.co/packages/6.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
[elasticsearch-6.x]
name=Elasticsearch repository for 6.x packages
baseurl=https://artifacts.elastic.co/packages/6.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
[kibana-6.x]
name=Kibana repository for 6.x packages
baseurl=https://artifacts.elastic.co/packages/6.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
接下来就可以安装 Logstash,ElasticSearch,Kibana 三个软件了,注意的是,因为Logstash和ElasticSearch依赖于Java8环境,因此还要先安装JDK8。
# 安装open JDK
sudo yum install java-1.8.0-openjdk -y
# 安装ELK
sudo yum install logstash elasticsearch kibana -y
安装完成后,三个软件分别安装在了
Logstash启动关闭命令在Centos6和7下是不同的
# CentOS 6 使用Upstart
initctl start logstash
initctl stop logstash
# CentOS 7 使用Systemd
sudo systemctl start logstash.service
sudo systemctl stop logstash.service
Logstash的配置格式分为三段:input,filter,output。
创建日志收集配置文件
/etc/logstash/conf.d/biz-logs.conf
在这个配置中,我们让 Logstash 监听来自端口5044
的beat请求(输入)。
input {
beats {
port => 5044
}
}
接下来是filter
部分,我们在使用filebeat
收集日志后,发送到Logstash的时候会按照日志的不同添加log_type
字段,在filter
部分根据类型的不同,分别采用不同的处理规则
首先判断日志是否是PHP慢查询日志,如果是的话,我们会使用ruby插件,使用Ruby
脚本对日志内容进行切割
ruby {
code => "lines = event.get('message').split('
')
occur_time, pool_name, pid = lines[0].match(/\[(.*?)\] \[pool (.*?)\] pid (\d+)/).captures
script_filename, = lines[1].match(/script_filename = (.*?)$/).captures
stacks = lines[2..-1].map {|line| line[21..-1]}
event.set('stacks', stacks)
event.set('script_filename', script_filename)
event.set('occur_time', occur_time)
event.set('pool_name', pool_name)
event.set('pid', pid)
"
}
之后,将慢查询日志发生的时间格式化,转换为时间类型,我们使用了date插件。
date {
match => ["occur_time", "dd-MMM-yyyy HH:mm:ss"]
target => "occur_time"
}
注意的是,PHP的慢查询日志是多行的,因此在Filebeat收集的时候,要将多行日志作为一个事件发布。
接下来是MySQL慢查询日志,这里我们使用了grok表达式对日志进行结构化解析,grok插件是Logstash中使用最频繁,也是最重要的插件之一。
grok {
match => {
"message" => "(?m)^#\s+User@Host:\s+%{USER:user}\[[^\]]+\]\s+@\s+(?:(?<clienthost>\S*) )?\[(?:%{IPV4:clientip})?\]\s+Id:\s+%{NUMBER:row_id:int}\n#\s+Query_time:\s+%{NUMBER:query_time:float}\s+Lock_time:\s+%{NUMBER:lock_time:float}\s+Rows_sent:\s+%{NUMBER:rows_sent:int}\s+Rows_examined:\s+%{NUMBER:rows_examined:int}\n\s*(?:use %{DATA:database};\s*\n)?SET\s+timestamp=%{NUMBER:occur_time};\n\s*(?<sql>(?<action>\w+)\b.*;)\s*(?:\n#\s+Time)?.*$"
}
remove_field => ["message"]
}
这里,我们使用match
方法将message内容转换为格式化后的数据,然后使用remove_field
方法将原来的未经过处理的日志内容删除掉,有格式化好的数据就足够了,没必要再去存储日志原文。
接下来是处理nginx
错误日志,nginx日志是单行日志,也是最普遍的一种日志记录格式,我们依旧使用grok表达式处理
grok {
match => {
"message" => "(?<occur_time>%{YEAR}/%{MONTHNUM}/%{MONTHDAY} %{TIME}) \[%{LOGLEVEL:log_level}\] %{POSINT:pid}#%{NUMBER}: %{GREEDYDATA:error_msg}"
}
remove_field => ["message"]
}
需要注意的几个配置(/etc/logstash/logstash.yml)
# 配置Logstash数据存储目录,Logstash插件的数据将会存储到这个目录
path.data: /var/lib/logstash
# 配置Logstash日志文件目录
path.logs: /data/logs/logstash
ElasticSearch启动关闭命令
service elasticsearch start
service elasticsearch stop
需要注意的几个配置项
# 集群的名字
cluster.name: yunsom-log-elastic
# Elasticsearch数据存储目录,这个目录比较重要,也会随着数据量的增多而变大,建议修改
path.data: /data/elasticsearch
# Elasticsearch日志存储目录
path.logs: /data/logs/elasticsearch
# Elasticsearch请求端口
http.port: 9200
# ElasticSearch绑定的HTTP地址,如果绑定为127.0.0.1则无法通过其它外部主机进行访问
# 正式环境中建议使用内网地址,比如192.168.0.0等
network.host: 0.0.0.0
Kibana启动关闭命令
service kibana start
service kibana stop
需要注意的几个配置项
# Kibana监听的地址
server.host: "0.0.0.0"
# Kibana监听的端口
server.port: 5601
# ElasticSearch服务地址
# 注意ElasticSearch绑定的地址是否可以访问
elasticsearch.url: "http://localhost:9200"
创建脚本 /data/scripts/clear-elasticsearch-index.sh
#!/bin/bash
#定时清除elk索引,15天
DATE=`date -d "15 days ago" +%Y.%m.%d`
curl -X DELETE "http://127.0.0.1:9200/logstash-$DATE"
curl -X DELETE "http://127.0.0.1:9200/nginx-access-$DATE"
curl -X DELETE "http://127.0.0.1:9200/php-slow-$DATE"
curl -X DELETE "http://127.0.0.1:9200/mysql-slow-$DATE"
创建完成后,增加可执行权限
chmod +x /data/scripts/clear-elasticsearch-index.sh
之后,配置定时任务,每天执行一次
# 定时每天1点清理过期的elastic日志索引
0 1 * * * /bin/bash /data/scripts/clear-elasticsearch-index.sh
启动Vagrant的时候,报错yum install -y kernel-devel-uname -r
gcc binutils make perl bzip2 执行失败
忽略,直接使用vagrant ssh
登录,之后修改dns地址即可
# 修改dns服务器
sudo sh -c "echo 'nameserver 8.8.8.8' > /etc/resolv.conf"
# 防止重启后dns备还原
sudo chattr +i /etc/resolv.conf
Copyright© 2013-2019