日志收集:   1、在DC上收集: - 下载并运行MSReport工具: [url]http://download.microsoft.com/download/b/b/1/bb139fcb-4aac-4fe5-a579-30b0bd915706/MPSRPT_DirSvc.EXE[/url] - 当弹出对话框后,请单击Yes接受最终用户许可协议。运行该工具大约平均需要5到15
原创 2009-04-04 23:45:18
1157阅读
1评论
  方法一: 1.通过IP打开存储的管理页面或安装Navisphere Management server and Navisphere Management UI在笔记本上,通过本地管理页面连接存储,在管理页面里右键SPA或SPB选择”SP collect”,系统自动运行收集日志的脚本。   2.等待几分钟后,右键SPA或SPB选择”File Transfer M
原创 2009-09-28 17:23:21
2608阅读
参考链接:http://blog.csdn.net/Neal_Liu/article/details/5157184
转载 精选 2014-12-15 16:31:35
423阅读
Lync管理人员在部署Lync过程中,测试或多或少会遇到一些问题,通过Lync客户端可以收集测试项的日志,如下是收集日志的方法:1、Lync 2010客户端打开日志记录(日志记录,勾选“在Lync中打开日志记录”),设置如下图:遇到错误后截图后,在开始菜单运行中输入%userprofile%\Tracing ,把类似于这样的文件Communicator-uccapi-#.uccapilog发给IT
原创 2015-04-10 14:37:36
1040阅读
日志收集
原创 2015-07-13 22:26:03
720阅读
nswl 收集日志 参考链接:https://docs.citrix.com/en-us/citrix-adc/12-1/system/web-server-logging.html log.conf 文件内容 启动 nswl 客户端程序: 注意:收集的内容会写入 Ex*.log 文件中。 查看收集
转载 2019-03-05 20:39:00
286阅读
2评论
elk 如何创建新的索引 创建kibana索引 若只需要收集显示nginx的访问日志,则可以建立一个名为nginx+
原创 5月前
7阅读
准备环境防火墙和selinux: 关闭主机名     elk-node1   elk-node2主机名解析192.168.227.128 elk-node1192.168.227.129 elk-node2master-slave模式:master收集日志后,会把一部分数据碎片到slave上(随机的一部分数据);同时,master和sl
原创 2018-08-28 20:22:28
858阅读
1点赞
logstash
原创 2019-03-27 11:25:42
895阅读
filebeat日志处理流程
原创 2019-11-25 21:51:30
1669阅读
elasticsearch 日志收集1. 背景2. 环境3. 问题4. 参考解决方案1. 背景工作遇到的类似问题,参考官网进行收集归档,进行笔记形式的记录,便于后续查看。2. 环境OpenShift Container Platform (OCP) 43. 问题由于 OCP 环境中应用的日志增大时会有大量日志产生
原创 2021-07-21 10:50:13
239阅读
一、filebeat收集日志到本地文件 1.配置 [root@web01 ~]# vim /etc/filebeat/filebeat.yml filebeat.inputs: - type: log enabled: true paths: - /var/log/nginx/access.log
原创 2021-07-29 09:51:01
520阅读
cat << EOF > /usr/local/filebeat-7.9.2/filebeat.yml#Pubilc_configmax_procs: 2queue.mem.events: 2048queue.mem.flush.min_events: 1536harvester_buffer_size: 40960000filebeat.spool_size: 250000fi
原创 2021-08-27 15:19:34
258阅读
  import paramikoimport datetimekey = 10now = datetime.datetime.now().strftime("%Y-%m-%d-%H:%M")def encrypt(k, s): b = bytearray(str(s).encode("gbk")) n = len(b) # 求出 b 的字节数 c = bytearray(n*
原创 2021-08-31 13:47:47
119阅读
一、FLUME介绍 Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。 设计目标: (1) 可靠性 当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将eve
转载 2015-11-27 23:44:00
169阅读
2评论
声明:本系列博客部分是根据SGG的视频整理而成,非常适合大家入门学习。部分文章是通过爬虫等技术手段采集的,目的是学习分享,如果有版权问题请留
转载 2021-09-09 17:45:56
309阅读
一、FLUME介绍Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。设计目标:(1) 可靠性当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到
转载 2015-05-11 16:05:00
150阅读
2评论
elasticsearch 日志收集1. 背景2. 环境3. 问题4. 参考解决方案1. 背景工作遇到的类似问题,参考官网进行收集归档,进行笔记形式的记录,便于后续查看。2. 环境OpenShift Container Platform (OCP) 43. 问题由于 OCP 环境中应用的日志增大时会有大量日志产生 ,而 elasticsearch 日志收集,此时可能会有瓶颈出现,如:节点网络流量过大,磁盘IO被占满等。4. 参考解决方案解决那么产生大量日志(应用的日志)的 task,进行优化
原创 2022-02-04 13:50:25
56阅读
Hdfs数据接入方式 Flume是什么 Flume在hadoop生态体系中的位置 Flume架构解析--Flume OG Flu
原创 9月前
71阅读
  • 1
  • 2
  • 3
  • 4
  • 5