OpenStack/Juju/MAAS/CloudStack/Hadoop
-
zhanju7hao
- 帖子: 32
- 注册时间: 2012-09-24 14:08
- 系统: ubuntu 12.10
#1
帖子
由 zhanju7hao » 2016-01-22 13:37
在log4j.properties 中的hdfs配置
代码: 全选
# hdfs audit logging
#
hdfs.audit.logger=INFO,NullAppender
hdfs.audit.log.maxfilesize=256MB
hdfs.audit.log.maxbackupindex=20
log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=INFO
log4j.additivity.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=false
log4j.appender.RFAAUDIT=org.apache.log4j.RollingFileAppender
log4j.appender.RFAAUDIT.File=${hadoop.log.dir}/hdfs-audit.log
log4j.appender.RFAAUDIT.layout=org.apache.log4j.PatternLayout
log4j.appender.RFAAUDIT.layout.ConversionPattern=%d{ISO8601} %p %c{2}: %m%n
log4j.appender.RFAAUDIT.MaxFileSize=${hdfs.audit.log.maxfilesize}
log4j.appender.RFAAUDIT.MaxBackupIndex=${hdfs.audit.log.maxbackupindex}
发现并没有生成相应的hdfs-audit.log,是还有什么地方需要设置吗,还是这个有什么地方设错了?
-
zhanju7hao
- 帖子: 32
- 注册时间: 2012-09-24 14:08
- 系统: ubuntu 12.10
#2
帖子
由 zhanju7hao » 2016-01-26 15:03
代码: 全选
# hdfs audit logging
#
hdfs.audit.logger=INFO
hdfs.audit.log.maxfilesize=256MB
hdfs.audit.log.maxbackupindex=20
log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=INFO
log4j.additivity.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=true
log4j.appender.RFAAUDIT=org.apache.log4j.RollingFileAppender
log4j.appender.RFAAUDIT.File=${hadoop.log.dir}/hdfs-audit.log
log4j.appender.RFAAUDIT.layout=org.apache.log4j.PatternLayout
log4j.appender.RFAAUDIT.layout.ConversionPattern=%d{ISO8601} %p %c{2}: %m%n
log4j.appender.RFAAUDIT.MaxFileSize=${hdfs.audit.log.maxfilesize}
log4j.appender.RFAAUDIT.MaxBackupIndex=${hdfs.audit.log.maxbackupindex}
该成这个设置,是有看到审计日志了,不过是写到namenode的日志中去的……
代码: 全选
2016-01-26 15:01:43,706 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit: allowed=true ugi=root (auth:SIMPLE) ip=/172.16.0.5 cmd=listStatus src=/tmp/hbase1.0.0/oldWALs dst=null perm=null proto=rpc
2016-01-26 15:01:43,773 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit: allowed=true ugi=root (auth:SIMPLE) ip=/172.16.0.5 cmd=listStatus src=/tmp/hbase1.0.0/archive dst=null perm=null proto=rpc
2016-01-26 15:01:47,116 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: there are no corrupt file blocks.
2016-01-26 15:01:49,290 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit: allowed=true ugi=dr.who (auth:SIMPLE) ip=/***** cmd=listStatus src=/ dst=null perm=null proto=webhdfs
2016-01-26 15:01:50,878 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit: allowed=true ugi=dr.who (auth:SIMPLE) ip=/***** cmd=listStatus src=/ dst=null perm=null proto=webhdfs
自己在慢慢折腾吧……
-
chengong
- 帖子: 1
- 注册时间: 2016-05-08 16:54
- 系统: centOs
#3
帖子
由 chengong » 2016-05-08 16:55
你好,现在你的这个问题搞定了吗?