分布式web系统,多个tomcat,日志很大,如何做日志查询呢?

SpiderMan 2015-06-29 10:28:22
请教大家一个问题,大家在做分布式web系统的时候,比如那么多个tomcat,每天都会产生很多的日志(虽然已经按小时进行日志拆分了,但日志内容还是很大,vim查日志的时候很慢),而且那么多个tomcat,每个tomcat都要去查询,这样日志查询会很麻烦,效率很低,想请教大家是如何处理的呢?我赶脚这是个系统设计问题,不知道大家是用的什么架构和组件来解决这样的问题的?
...全文
1369 8 打赏 收藏 转发到动态 举报
写回复
用AI写文章
8 条回复
切换为时间正序
请发表友善的回复…
发表回复
名明鸣冥 2017-12-16
  • 打赏
  • 举报
回复
分布式查日志个简单的办法, 把一台机设置成ssh 免密登陆到其它机,然后用下面这样的版本来找关键字. ipArr=('10.xxx' '10.xxx.16' '10xxx17' '10.xxx.18') for ip in ${ipArr[@]};do echo $ip ssh $ip grep <关键字> /xxx/log/account/account.log.[1-5] done
红烧茄子-306 2015-07-10
  • 打赏
  • 举报
回复
splunk
chaoliu1024 2015-07-02
  • 打赏
  • 举报
回复
有专门对日志进行分析的,比如splunk,另外,生产环境的日志最好不要debug级别
大彪先生 2015-06-30
  • 打赏
  • 举报
回复
如果对分布式应用有了解的话,可以采用flume + kafka + storm 来做日志实时监控或者分析。 但是感觉你只是要能vim打开看,那么你可以把日志的粒度分的再细些(时间/大小)。
大彪先生 2015-06-30
  • 打赏
  • 举报
回复
引用 4 楼 baiyang911 的回复:
[quote=引用 3 楼 u010811257 的回复:] 如果对分布式应用有了解的话,可以采用flume + kafka + storm 来做日志实时监控或者分析。 但是感觉你只是要能vim打开看,那么你可以把日志的粒度分的再细些(时间/大小)。
谢谢大侠的回答,你的回答,让我清晰了自己的问题方向,我重新梳理下自己的问题:对于分布式应用的一般架构是什么样的?后台服务做日志实时监控或分析的一般架构是什么样的?想进一步了解下这方面的架构和技术点,有个学习方向和侧重点,能否举一些实践例子,灰常感谢大侠!!!(目前,了解一些lvs,nginx,kafka,redis,rabbitmq)[/quote] hadoop生态圈以及spark,目前分布式应用或者大数据这块比较不错,可以花点时间研究下这方面的技术。
SpiderMan 2015-06-30
  • 打赏
  • 举报
回复
引用 3 楼 u010811257 的回复:
如果对分布式应用有了解的话,可以采用flume + kafka + storm 来做日志实时监控或者分析。 但是感觉你只是要能vim打开看,那么你可以把日志的粒度分的再细些(时间/大小)。
谢谢大侠的回答,你的回答,让我清晰了自己的问题方向,我重新梳理下自己的问题:对于分布式应用的一般架构是什么样的?后台服务做日志实时监控或分析的一般架构是什么样的?想进一步了解下这方面的架构和技术点,有个学习方向和侧重点,能否举一些实践例子,灰常感谢大侠!!!(目前,了解一些lvs,nginx,kafka,redis,rabbitmq)
夜无边CN 2015-06-29
  • 打赏
  • 举报
回复
把不同级别的日志分开打呢
SpiderMan 2015-06-29
  • 打赏
  • 举报
回复
肿么木有人回答,自己顶下

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧