首页
分类
标签
图库
动态
软件包
关于
梁来福
累计撰写
121
篇文章
累计创建
25
个标签
累计收到
1
条评论
栏目
首页
分类
标签
图库
动态
软件包
关于
目 录
CONTENT
以下是
ELK
相关的文章
2024-05-24
Logstash转换geoip地理坐标并绘图
Logstash配置 Logstash配置文件,添加geoip解析请求的IP地址 # 把需要解析的字段加入geoip的source中 cat > /etc/logstash/conf.d/redis_grok_geoip.conf << 'EOF' input { redis { hos
2024-05-24
16
0
0
Logs
2024-05-23
logstash读取Redis缓存数据并转换格式
情况一:普通格式日志 架构图 filebeat收集Nginx日志输出到Redis; logstash读取Redis内的缓存日志经过Grok语法转换为json格式; Kibana进行展示。 Redis # 这里Redis不是重点,yum安装 yum
2024-05-23
3
0
0
Logs
2024-05-22
filebeat收集Java多行日志
背景 Java的日志为多行日志,filebeat每读取一行都会直接收集到ES,这样一条报错日志分成很多条收集到了ES,显然不是想要的效果。 filebeat配置文件 此配置文件表示,以“[”开头一直到下一个“[”开头,这中间的所有日志内容为一行日志。 剔除ecs、log等字段,不收集到ES。 cat
2024-05-22
10
0
0
Logs
2024-05-21
ELK使用推广策略
2024-05-21
1
0
0
Logs
2024-05-20
filebeat使用模块匹配Nginx普通日志
不修改Nginx的任何配置,也不使用任何工具转换格式。可以使用filebeat自带的模块完成日志的收集。 开启模块功能 filebeat配置文件增加并且开启模块功能 cat >/etc/filebeat/filebeat.yml << 'EOF' filebeat.config.modules:
2024-05-20
4
0
0
Logs
2024-05-16
filebeat使用es的pipeline处理Nginx普通日志
如果想要无侵入的收集到Nginx的Json格式日志,意思就是不改动Nginx任何配置。通过filebeat和es的pipline结合可以做到。 Grok规则测试 先获取到Nginx普通日志格式,示例: 172.16.49.1 - - [16/May/2024:17:29:57 +0800] "GET
2024-05-16
8
0
0
Logs
2024-05-15
filebeat收集不同格式日志类型
前言 如果日志格式不是标准的Json格式,那么该如何收集呢? 例如收集Nginx的error错误日志。 方法一 第一种方法,通过日志的字段来区分,分别收集。 简单来说,就是Nginx的access和error两个日志分别收集,然后通过共同的字段日志的path来做区分。 filebeat配置 file
2024-05-15
10
0
0
Logs
2024-05-15
Kibana绘图分析日志
IP图表 Kibana绘图分析Nginx日志中访问排名前十的IP地址 绘制 在Kibana主页中,依次选择 Visualize可视化工具 -> Create new visualization -> Horizontal Bar -> nginx-7.9.1-2024.05索引(要分析的日志) 按照
2024-05-15
2
0
0
Logs
2024-05-14
filebeat收集Json格式的Nginx日志
流程图 Nginx操作 添加Nginx日志格式json yum安装的Nginx默认此配置文件 vim /etc/nginx/nginx.conf log_format json '{' '"timestamp":"$time_local",'
2024-05-14
10
0
0
Logs
2024-05-13
filebeat收集普通Nginx日志
环境准备ELFK elasticsearch7.9.1 + filrebeat7.9.1 + kibana7.9.1 + Nginx1.24 Nginx 比较简单,自行安装,这里采集日志文件为“/data/elk/sdk.google.log” Elasticsearch
2024-05-13
25
0
0
Logs