美文网首页
Flume从入门到精通2:Flume实战之采集日志保存到HDFS

Flume从入门到精通2:Flume实战之采集日志保存到HDFS

作者: 金字塔下的小蜗牛 | 来源:发表于2020-04-03 09:00 被阅读0次

案例:采集一个目录下面的日志信息,并将采集结果保存到HDFS上。

1.定义Agent配置文件

由Flume的体系结构可知,Agent = Source + Chanel + Sink,所以定义Agent的配置信息,就是定义这三个组件的具体实现方式。

创建一个目录myagent用于存放Agent配置文件:

# mkdir /root/trainings/apache-flume-1.8.0-bin/myagent

定义一个Agent的配置文件a1.conf:

# vim /root/trainings/apache-flume-1.8.0-bin/myagent/a1.conf

内容如下:

#定义agent名, source、channel、sink的名称
a1.sources = r1
a1.channels = c1
a1.sinks = k1
#具体定义source
a1.sources.r1.type = spooldir
a1.sources.r1.spoolDir = /root/trainings/logs
#具体定义channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 10000
a1.channels.c1.transactionCapacity = 100
#定义拦截器,为消息添加时间戳
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = org.apache.flume.interceptor.TimestampInterceptor$Builder
#具体定义sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://192.168.254.112:9000/flume/%Y%m%d
a1.sinks.k1.hdfs.filePrefix = events-
a1.sinks.k1.hdfs.fileType = DataStream
#不按照条数生成文件
a1.sinks.k1.hdfs.rollCount = 0
#HDFS上的文件达到128M时生成一个文件
a1.sinks.k1.hdfs.rollSize = 134217728
#HDFS上的文件达到60秒生成一个文件
a1.sinks.k1.hdfs.rollInterval = 60
#组装source、channel、sink
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1</pre>

2.创建上面指定的日志目录

# mkdir /root/trainings/logs

3.启动Hadoop

# start-all.sh
# jps
4870 NameNode
5369 NodeManager
5275 ResourceManager
5134 SecondaryNameNode
5518 Jps
4959 DataNode

4.启动Flume服务

# cd /root/trainings/apache-flume-1.8.0-bin/
# flume-ng agent -n a1 -f myagent/a1.conf -c conf/ -Dflume.root.logger=INFO,console

参数agent 的选项说明:

  • -n 指定agent的名字
  • -f 指定agent配置文件
  • -c 指定flume配置文件的目录
  • -Dflume.root.logger=INFO,console 将INFO级别以上的日志显示在控制台
image

如果输出结果有以下三行内容证明Flume启动成功:

……
Comment type: CHANEL, name: c1 started
……
Comment type: SINK, name: k1 started
……
Comment type: SOURCE, name: r1 started

Flume启动成功之后,会一直监听日志目录的变化。一旦日志目录有变化,就会按照配置开始采集日志,并将信息打印在屏幕上。

5.开始采集日志

为了模拟日志产生,可以手动拷贝一些日志文件到/root/trainings/logs目录下。

打开一个新终端,将hadoop的日志文件拷贝到测试目录下:

# ls /root/trainings/hadoop-2.6.1/logs/
hadoop-root-datanode-bigdata112.log
hadoop-root-datanode-bigdata112.out
hadoop-root-datanode-bigdata112.out.1
hadoop-root-datanode-bigdata112.out.2
hadoop-root-datanode-bigdata112.out.3
hadoop-root-namenode-bigdata112.log
hadoop-root-namenode-bigdata112.out
hadoop-root-namenode-bigdata112.out.1
hadoop-root-namenode-bigdata112.out.2
hadoop-root-namenode-bigdata112.out.3
hadoop-root-secondarynamenode-bigdata112.log
hadoop-root-secondarynamenode-bigdata112.out
hadoop-root-secondarynamenode-bigdata112.out.1
SecurityAuth-root.audit
userlogs
yarn-root-nodemanager-bigdata112.log
yarn-root-nodemanager-bigdata112.out
yarn-root-nodemanager-bigdata112.out.1
yarn-root-nodemanager-bigdata112.out.2
yarn-root-nodemanager-bigdata112.out.3
yarn-root-resourcemanager-bigdata112.log
yarn-root-resourcemanager-bigdata112.out
yarn-root-resourcemanager-bigdata112.out.1
yarn-root-resourcemanager-bigdata112.out.2
yarn-root-resourcemanager-bigdata112.out.3

# cp /root/trainings/hadoop-2.6.1/logs/* /root/trainings/logs/

执行上述拷贝命令时,flume就开始采集日志,可以看到旧终端窗口变化,有很多日志信息被打印出来。

采集到的日志会被保存到HDFS上,配置文件中指定的目录/flume下面:

# hdfs dfs -ls /flume
Found 1 items
drwxr-xr-x - root supergroup 0 2018-06-02 22:35 /flume/20180602

说明:在采集的过程中,根据配置文件的设置,如果结果文件的大小没有达到128M并且时间没有超过60S,结果文件的名字中会带有tmp后缀,一旦大小超过128M或者时间超过60S,结果文件的名字就会去掉tmp后缀。

更多使用案例请参考Flume用户手册:《Flume User Guide》。

相关文章

  • Flume从入门到精通2:Flume实战之采集日志保存到HDFS

    案例:采集一个目录下面的日志信息,并将采集结果保存到HDFS上。 1.定义Agent配置文件 由Flume的体系结...

  • (十)大数据学习之sqoop

    Sqoop 1.架构: (1)flume数据采集 采集日志数据(2)sqoop数据迁移 hdfs->mysql(3...

  • Flume连接HDFS和Hive

    Flume连接HDFS 进入Flume配置 配置flume.conf 测试telnet通信 查看日志找到HDFS文...

  • 大数据学习之:Flume

    flume作用 从磁盘采集文件发送到HDFS 数据采集来源:系统日志文件、Python爬虫数据、端口数据 数据发送...

  • 统计系统

    spark+flume+hadoop flume将日志收集到HDFS文件系统中,spark进行统计计算

  • 数据仓库基础架构

    数据采集:采用Flume收集日志,采用Sqoop将RDBMS以及NoSQL中的数据同步到HDFS上 消息系统:可以...

  • Flume

    日志采集框架Flume 1 Flume介绍 1.概述 Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和...

  • 大数据实战之App管理平台日志分析(二)

    原文链接使用的是客户端收集的日志直接输出到flume中,在flume收集完后,保存到hdfs中。其中有定义flum...

  • Flume的安装与使用详解

    Flume的简单介绍Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。Flume可以采集文件...

  • (一)Flume的安装

    Flume的简单介绍Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。Flume可以采集文件...

网友评论

      本文标题:Flume从入门到精通2:Flume实战之采集日志保存到HDFS

      本文链接:https://www.haomeiwen.com/subject/wedkdhtx.html