51CTO博客开发shark巨菜-菜园志林肯通信,我的最爱
一、环境部署1、准备工作 创建程序报下载目录:/home/Packagemkdir -pv/home/Package 下载程序包: cd /home/Package wget ftp://ftp.
Python脚本学习系列,对比两个目录判断文件是否同时在两个目录都存在。
原来我个人对于制度和流程在企业中的看法一直是限制员工发展力的一种东西,但是当开始涉及到管理的工作才发现,一个公司是不是能很好发展制度和流程在其中起到了很关键的作用。 都说制度是死的,人是活的,确实,但是人是活的这一点不是因为人是活的就可以肆无忌惮的违反制度和流程,而是通过实际情况修改和完善存在漏洞的制度和流程。如果制度和流程
根据公司业务需求,需要压缩网站中的js、图片、css等文件,图片和css等文件的压缩很容易实现,但是js文件的压缩着实让人郁闷,一开始只添加了text/javascript这一项,但是通过访问测试发现js文件并没有进行压缩,在网上搜了搜,看到有的地方说要在加上application/javascript这一项,加上后再测试,压缩成功。以下是我们网站压缩的列子,这里列出来
需求:两台服务器(A、B),在服务器A上存放着大量的图片,需要在每天夜里三点同步到服务器B,源目录和目的目录都是/p_w_picpath启用程序:rsync服务器A上的配置:1、/etc/rsyncd.confuid = nobodygid = nobodyuse chroot = nomax connectionts = 6read only = yeshosts allow = 192.168
这是一个群里别人让我写的一个小脚本,当做练习发到这里,功能很简单,从一个文件里面提取域名,之后利用nslookup命令对域名进行解析,再按照固定的格式输出到一个新的文件里面(输出规格是为address=/域名/IP),脚本内容如下: #!/bin/bash for name in `cat /root/dns.File` ;do &nbs
build.xml<?xml version="1.0" encoding="UTF-8" ?> <project name="bianyitest" basedir="."> <property file="b
import random List = ['a','b','c','d'] First = raw_input("First :") for Item in List: if First&n
昨天做了python客户端和服务器端通信,并把接收到的信息写到数据库,因为对数据库进行操作是个经常调用的行为,所以我想把调用数据库的操作写成一个module来给其它python程序调用,所以将昨天的服务器端程序拆分为两个文件:1、主程序python.py#!/usr/bin/env python import socket import json import con
服务端import socket import json s=socket.socket(socket.AF_INET,socket.SOCK_STREAM,0) host='' port=1234 s.bind((host,port)) s.listen(3) while True: client,ipaddr=s.accept() print "Got a c
结合最近一段时间的工作,突然觉得为啥有人那么喜欢加班!所以在网上搜了搜,令我诧异的是有这种想法的人真是相当多。看了几个文章之后,这种言论的理由无非就是:加班是能力的体现(有能力的加班),不加班等于虚度光阴等等。 作为一个外地人,对于有人说“不加班等于虚度光阴”还多少能表示理解,毕竟很多去外地打工的人不会总是带着老婆孩子和父母,而作为本地人,每天
MySQLCluster部署配置文档本文借鉴了网上其他人的文章,由于大家关于mysql cluster的文章基本都差了不多,这里我也就不写从哪里引用的了。环境OS版本:CentOS 6.3 FinalMySQL 版本:MySQL Server 5.1.73-3MySQL Cluster版本(应采用NDB7.x版本,别的版本不支持不重启动态就能增加数据节点):MySQL Cluster 7.3.4-
总揽 这个Hadoop插件可以用来监控Hadoop集群的NameNode和JobTracker。Hadoop is the leading and defacto distributed big data processing system "out there"。然而被像雅虎(据说拥有非常庞大的Hadoop集群),Facebook,Groupon等公司所使用的似乎只有G
python调用shell命令的方法有许多1.1 os.system(command)在一个子shell中运行command命令,并返回command命令执行完毕后的退出状态。这实际上是使用C标准库函数system()实现的。这个函数在执行command命令时需要重新打开一个终端,并且无法保存command命令的执行结果。1.2 os.popen(command,mod
由于业务需要对线上的一台应用程序为WebSphere的服务器进行迁移,开始在网上搜索了一下,基本上没有看到迁移成功的案例,所以只好自己慢慢弄了,WebSphere的迁移工作一共用了2天的时间,其中包括Web容器及Web程序的复制,数据库迁移,排错等步骤,由于数据库的迁移是由DBA完成的所以这里我就不进行描述了。一、原服务器上的操作 利用tar命令对WebSphere和其http程序进行打包t
今天群里面有个朋友启动apache后显示启动成功,但是用/etc/init.d/httpd status命令查看apache状态却提示httpd已死,但是subsys被锁。 远程连接到他的机器后察看了一下他的apache配置文件,发现他的apache配置文件中同时启用了线程和进程两种模式,而且还不是在虚拟机中,而是在主配置文件中这样配置的。所以我把其中一种模式注销后重新启动apache并查看
今天打开前两天安装的KVM虚拟机,启动虚拟机的时候有"failed to open file '/dev/sr0/: no medim found"的报错,在/dev下找了一下sr0是存在的,有点搞不清楚是怎么回事,突然想到光驱好像是sr0的软连接,#ll /dev/dvd,查看了一下果然是。之后进虚拟机的配置文件里面直接把光驱disconnect再启动就好了。果然是小
************************************************************ Check /etc/passwd ************************************************************ EOF if [ -f ${inspection_HOME}/passwd_us
近几年大数据的概念被炒的红红火火,各种云应运而生,也有不少企业开始搭载自己的云,但是真的什么企业都需要吗?下面我要说的也仅仅是基于我目前工作的一些感想,欢迎拍砖! 公司的主要数据是利用HBase收集的报文,整个到目前运行了一年零一两个月的时间。目前数据量是266GB(其中包含一份完全副本,实际业务数据133GB),在7月出进行数据统计时,该平台
简单写几个Apache的access日志分析的命令,先列出来以后再慢慢完善:1、查看每小时的访问量 cat access-`date '+%y%m%d'`.log |awk '{$1="";$2="";$3="";print $0}'|cut -c 17-18|sort|uniq -c|sort -nr 2、查看被访问最多的10个URL cat access-`date '+%y%m%d'`
#!/bin/bash arg1=(`cat /root/1`) arg2=(`awk '{print $2}' /root/2`) n=0 if [ ${#arg1[*]} -ge ${#arg2[*]} ];then x=${#arg1[*]} for ((n=0;n<$x;n++)) do echo ${ar
#!/bin/bash ARG=`awk -F: '{print $1,$3}' /etc/passwd` num=-1 while (No=0,num>-1,No++); do for i in $ARG; do num=`expr \`echo ${num}\` + 1` if [ $((${nu
挂载WebDav提供的网络存储,需要安装三个包,分别是:fuse、neon和davfs1、编译安装fuse[root@datanode src]# tar fvxzfuse-2.8.5.tar.gz[root@datanode src]# cd fuse-2.8.5[root@datanode fuse-2.8.5]# ./configure如果编译完成后不确定是否正常编译,可以用命令echo $
Webdav的war包下载路径:http://down.51cto.com/data/8452021.Webdav协议介绍:WebDAV(Web-based Distributed Authoring andVersioning)是基于 HTTP 1.1 的一个通信协议。它为 HTTP 1.1 添加了一些扩展(就是在 GET、POST、HEAD 等几个 HTTP 标准方法以外添加了一些新的方法),
前两天在更新完tomcat后启动时报错,内容如下:2013-06-18 18:58:26 org.apache.coyote.http11.Http11AprProtocol startINFO: Starting Coyote HTTP/1.1 on http-80802013-06-18 18:58:26 org.apache.coyote.ajp.AjpAprProt
一、添加新的datanode节点 修改namenode服务器的上hadoop的配置文件slave,在该文件中添加新加入集群的 服务器名称(hostname),并添加在/etc/hosts文件中添加对应的解析项,内容如下: [root@namenode~]# cat /etc/hosts 127.0.0.1  
1、2008年后期经典Hadoop服务器选型 CPU:2 X Xeon 2.0 GHz (四核) 内存:8GB 磁盘:4 X 1TB 网卡:千兆以太网卡 2、Hadoop数据节点 从Hadoop权威指南一书中可以看到作者建议在Hadoop的数据节点上不要组件raid,其中的理由是:无论raid 1、raid 5还是raid 0+1这样做的主要目的
先把测试脚本放出来,这个脚本尚处于未完成状态- - 这个脚本要达到的作用是:利用nagios的check_tcp命令,检查tomcat的8080端口是否正常工作,如果正常则退出;如果不正常则利用expe
前几天由于我前一个公司(刚刚离职- -!)的tomcat总是down(进程存在,无法对外提供服务),由于特征状态不明显不能根据进程来判断,所以我用对比tomcat的catalina.out日志文件最后修改时间的方式来进行,因为我发现当服务器无法提供业务是,日志文件就停止打印了,并且写了一个脚本,并通过crond来执
Copyright © 2005-2023 51CTO.COM 版权所有 京ICP证060544号