linux作为服务器系统,当socket运行高并发TCP程序时,通常会出现连接建立到一定个数后不能再建立连接的情况。


我在做集群集群聊天服务器项目的时候,多次测试,发现每次连接建立到1000左右时,再也不能建立tcp连接,


通过这个命令 ulimit -n 可以看到默认值为1024



最近通过上网搜索,linux系统默认ulimit为1024个访问 用户最多可开启的程序数目。一般一个端口的最高连接为2的16次方65535。


查看全局文件句柄数限制(系统支持的最大值)

cat /proc/sys/fs/file-max



方法1

这个方法仅仅在当前打开的终端有效



方法2

第一步,修改/etc/security/limits.conf文件,在文件中添加如下行(*指代系统用户名),修改Linux系统对用户的关于打开文件数的软限制和硬限制:


soft nofile 65536


hard nofile 65536


第二步,修改/etc/pam.d/login文件,在文件中添加如下行:


session required /lib/security/pam_limits.so

1

如果是64bit系统的话,应该为 :

session required /lib64/security/pam_limits.so


第三步,修改/etc/sysctl.conf文件,在文件中(清除文件原始内容(或者在原有的基础上添加,我是这么干的))添加如下行(修改网络内核对TCP连接的有关限制),其中fs.file-max=1000000 为全局限制,就是整台机器最大句柄数。


net.ipv4.ip_local_port_range = 1024 65535


net.core.rmem_max=16777216


net.core.wmem_max=16777216


net.ipv4.tcp_rmem=4096 87380 16777216


net.ipv4.tcp_wmem=4096 65536 16777216


net.ipv4.tcp_fin_timeout = 10


net.ipv4.tcp_tw_recycle = 1


net.ipv4.tcp_timestamps = 0


net.ipv4.tcp_window_scaling = 0


net.ipv4.tcp_sack = 0


net.core.netdev_max_backlog = 30000


net.ipv4.tcp_no_metrics_save=1


net.core.somaxconn = 262144


net.ipv4.tcp_syncookies = 0


net.ipv4.tcp_max_orphans = 262144


net.ipv4.tcp_max_syn_backlog = 262144


net.ipv4.tcp_synack_retries = 2


net.ipv4.tcp_syn_retries = 2


fs.file-max=1000000


第四步,执行如下命令(使上述设置生效):


/sbin/sysctl -p /etc/sysctl.conf


/sbin/sysctl -w net.ipv4.route.flush=1


第五步,执行如下命令(linux系统优化完网络必须调高系统允许打开的文件数才能支持大的并发,默认1024是远远不够的):


echo ulimit -HSn 65536 >> /etc/rc.local


echo ulimit -HSn 65536 >>/root/.bash_profile


ulimit -HSn 65536


第六步,重启机器。


通过这个命令 ulimit -n 可以看到值改为65536了,也就是说现在最多支持65536个tcp socket连接了

通过修改,tcp可以达到20000个连接完全没有问题


查看当前有多少个TCP连接到当前服务器命令: