当前位置:首页 > 技术文章 > 正文内容

Linux下各种连接数配置及高并发Nginx优化

arlanguage5个月前 (12-10)技术文章56


前言

在性能测试过程中,经常会接触到链接数相关的问题,那就是一台服务器最多能支持多少链接数呢?

有的朋友可能会说是65535,因为操作系统有65535个端口,那么这个答案准确吗?

首先先了解下如何标识一个链接,操作系统是通过一个四元组来标识一个TCP链接:

{本地ip,本地port,远程ip,远程port}

这四个要素唯一确定一个TCP链接,任意一个要素不相同,就认为是一个不同的链接。

在Linux系统中,一切皆文件,每一个TCP链接都要占用一个文件句柄,系统允许创建的链接数取决于句柄数的上限。超过这个值再创建链接就会报这样的错误:

Can’t open so many files

内核文件描述符

查看及修改内核文件描述符的最大限制

查看

1

more /proc/sys/fs/file-max

临时生效

1

echo 3195430 > /proc/sys/fs/file-max

立即生效,永久生效

1

2

echo "fs.file-max = 3195430" >> /etc/sysctl.conf

sysctl -p

系统连接数

查看

1

ulimit -n

参数

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

-S use the soft resource limit # 设置软限制

-H use the hard resource limit # 设置硬限制

-a all current limits are reported# 显示所有的配置。

-b the socket buffer size # 设置socket buffer 的最大值。

-c the maximum size of core files created # 设置core文件的最大值.

-d the maximum size of a process's data segment # 设置线程数据段的最大值

-e the maximum scheduling priority ('nice') # 设置最大调度优先级

-f the maximum size of files written by the shell and its children # 创建文件的最大值。

-i the maximum number of pending signals # 设置最大的等待信号

-l the maximum size a process may lock into memory #设置在内存中锁定进程的最大值

-m the maximum resident set size

-n the maximum number of open file descriptors # 设置最大可以的打开文件描述符。

-p the pipe buffer size

-q the maximum number of bytes in POSIX message queues

-r the maximum real-time scheduling priority

-s the maximum stack size

-t the maximum amount of cpu time in seconds

-u the maximum number of user processes # 设置用户可以创建的最大进程数.

-v the size of virtual memory # 设置虚拟内存的最大值

-x the maximum number of file locks

临时生效

1

ulimit -HSn 65535

永久生效

1

cat /etc/security/limits.conf

配置如下

1

2

3

4

* soft nofile 65535

* hard nofile 65535

* soft nproc 65535

* hard nproc 65535

通过

1

sysctl -p

使得配置生效,可用通过ulimit -a查看file配置是否生效,临时设置也可用通过ulimit -u 65535 配置。

查看系统当前的连接数

1

netstat -ant | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'

结果

LAST_ACK 54

SYN_RECV 5

ESTABLISHED 4636

FIN_WAIT1 52

FIN_WAIT2 299

CLOSING 3

TIME_WAIT 1344

解析:

LAST_ACK //等待所有分组死掉

SYN_RECV //一个连接请求已经到达,等待确认

ESTABLISHED //正常数据传输状态/当前并发连接数

FIN_WAIT1 //应用说它已经完成

FIN_WAIT2 //另一边已同意释放

CLOSING //两边同时尝试关闭

TIME_WAIT //另一边已初始化一个释放

单独查看TIME_WAIT

1

ss -nat | grep TIME-WAIT

这里看到大部分都是9001和9011端口的服务占用的

我们查询一下数量

1

2

ss -nat | grep TIME-WAIT | grep 9001 | wc -l

ss -nat | grep TIME-WAIT | grep 9011 | wc -l

内核参数的优化

查看内核参数

1

sysctl -a

注意

调整内核参数后,内核处于不稳定状态,请务必重启实例。

打开配置文件

1

vi /etc/sysctl.conf

修改

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

# 打开文件句柄数量

fs.file-max = 655360

# 最大ip跟踪数

net.nf_conntrack_max = 655360

#表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为2分钟。

net.netfilter.nf_conntrack_tcp_timeout_established = 120

# 允许系统打开的端口范围,扩大端口数

net.ipv4.ip_local_port_range = 10000 65535

# 用来限制监听(LISTEN)队列最大数据包的数量,超过这个数量就会导致链接超时或者触发重传机制,

net.core.somaxconn = 65535

# 每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。

net.core.netdev_max_backlog = 262144

# TIME_WAIT相关

# TIME_WAIT 最高的队列数

net.ipv4.tcp_max_tw_buckets = 262144

# timeout状态时间

net.ipv4.tcp_fin_timeout = 15

# 开启时就是同一个源IP来连接同一个目的端口的数据包时间戳必须是递增的,否则就丢弃

net.ipv4.tcp_timestamps = 1

# 开启重用。允许将TIME-WAIT sockets 重新用于新的TCP 连接。

net.ipv4.tcp_tw_reuse = 1

# 是否启用timewait 快速回收。如果服务器身处NAT环境,tcp_timestamps为1,安全起见,要禁止

net.ipv4.tcp_tw_recycle = 0

net.ipv4.ip_conntrack_max = 10240

# 系统中最多有多少个TCP 套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤儿连接将即刻被复位并打印出警告信息。

net.ipv4.tcp_max_orphans = 262144

# 是指定所能接受SYN同步包的最大客户端数量。

net.ipv4.tcp_max_syn_backlog = 262144

# 为了打开对端的连接,内核需要发送一个SYN,以确认收到上一个 SYN连接请求包。也就是所谓三次握手中的第二次握手。

# 这个设置决定了内核放弃连接之前发送SYN+ACK 包的数量。

net.ipv4.tcp_synack_retries = 1

# 对于一个新建连接,内核要发送多少个 SYN 连接请求才决定放弃,测试感觉两个更稳定

net.ipv4.tcp_syn_retries = 2

# 开启SYN Cookies,当出现SYN 等待队列溢出时,启用cookies 来处理,目的是为了防止syn flood攻击。合法用户的高负载应该调整tcp_max_syn_backlog、tcp_synack_retries属性,

net.ipv4.tcp_syncookies = 0

使得配置生效

1

sysctl -p

跟TIME_WAIT有关的配置

1

2

# TIME_WAIT 最高的队列数

net.ipv4.tcp_max_tw_buckets = 262144

调整次参数的同时,要调整TIME_WAIT_2到TIME_WAIT的超时时间,默认是60s,优化到30s:

1

2

# TIME_WAIT_2到TIME_WAIT的超时时间

net.ipv4.tcp_fin_timeout = 30

其它TCP本身的配合参数类似与synack重传次数、syn重传次数等以后介绍,优化后也是有所益处的。

1

2

3

4

# 开启时就是同一个源IP来连接同一个目的端口的数据包时间戳必须是递增的,否则就丢弃

net.ipv4.tcp_timestamps = 1

# 开启重用。允许将TIME-WAIT sockets 重新用于新的TCP 连接。

net.ipv4.tcp_tw_reuse = 1

机器作为客户端时起作用,开启后time_wait在一秒内回收

不要开启,现在互联网NAT结构很多,可能直接无法三次握手

1

2

# 不要开启,现在互联网NAT结构很多,可能直接无法三次握手

net.ipv4.tcp_tw_recycle = 0

Nginx连接数

查看连接数

查看Nginx并发连接数

1

netstat -apn|grep 'nginx: worker'|wc -l

CPU相关信息查看

1

2

3

4

5

6

7

8

# 逻辑CPU个数:

cat /proc/cpuinfo | grep "processor" | wc -l

# 物理CPU个数:

cat /proc/cpuinfo | grep "physical id" | sort | uniq | wc -l

# 每个物理CPU中Core的个数:

cat /proc/cpuinfo | grep "cpu cores" | wc -l

配置连接数

Nginx总并发连接数 = worker数量 * worker_connections

一般建立连接的角度:客户并发连接为1.

nginx作为http服务器的时候:

max_clients = worker_processes * worker_connections

nginx作为反向代理服务器的时候:

max_clients = worker_processes * worker_connections/2

nginx做反向代理时,和客户端之间保持一个连接,和后端服务器保持一个连接。

但是怎样合理的设置worker_processes与worker_connections这两个参数?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

user nginx;

worker_processes auto;

worker_rlimit_nofile 256000;

events {

use epoll;

worker_connections 65535;

multi_accept on;

}

http {


}

根节点配置

1

2

3

worker_processes auto;

worker_rlimit_nofile 65535;

worker_cpu_affinity 0001 0010 0100 1000;

worker_processes

worker角色的进程个数(nginx启动后有多少个worker处理http请求。master不处理请求,而是根据相应配置文件信息管理worker进程. master进程主要负责对外揽活(即接收客户端的请求),并将活儿合理的分配给多个worker,每个worker进程主要负责干活(处理请求))。

nginx运行工作进程个数,一般设置cpu的核心或者核心数x2,如:worker_processes 4;

可以设置为auto,auto这个参数值是从nginx 1.3.8和nginx 1.2.5 开始进行支持的,自动参数可以自动检测 cpu cores 并设置 worker_processes 参数 。

1

worker_processes auto;

worker_processes最多开启8个,8个以上性能就不会再提升了,而且稳定性会变的更低,因此8个进程够用了。

查看nginx当前进程数:

1

ps -aux | grep nginx |grep -v grep

worker_rlimit_nofile

Nginx最多可以打开文件数,与ulimit -n保持一致,如:worker_rlimit_nofile 65535;

为nginx工作进程改变打开最多文件描述符数目的限制。用来在不重启主进程的情况下增加限制。

worker_cpu_affinity

运行CPU亲和力,与worker_processes对应,如:worker_cpu_affinity 0001 0010 0100 1000;

2核cpu,开启2个进程

1

2

worker_processes 2;

worker_cpu_affinity 01 10;

解释:01表示启用第一个CPU内核,10表示启用第二个CPU内核

worker_cpu_affinity 01 10;表示开启两个进程,第一个进程对应着第一个CPU内核,第二个进程对应着第二个CPU内核。

2核cpu,开启4个进程

1

2

worker_processes 4;

worker_cpu_affinity 01 10 01 10;

解释:开启了四个进程,它们分别对应着开启2个CPU内核

4个cpu,开启4个进程

1

2

worker_processes 4;

worker_cpu_affinity 0001 0010 0100 1000;

解释:0001表示启用第一个CPU内核,0010表示启用第二个CPU内核,依此类推

4核cpu,开启2个进程

1

2

worker_processes 2;

worker_cpu_affinity 0101 1010;

解释:0101表示开启第一个和第三个内核,1010表示开启第二个和第四个内核;2个进程对应着四个内核;worker_cpu_affinity配置是写在/etc/nginx/nginx.conf里面的;2核是 01,四核是0001,8核是00000001,有多少个核,就有几位数,1表示该内核开启,0表示该内核关闭。

8核cpu,开启8个进程

1

2

worker_processes 8;

worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;

解释:0001表示启用第一个CPU内核,0010表示启用第二个CPU内核,依此类推;worker_processes最多开启8个,8个以上性能提升不会再提升了,而且稳定性变得更低,所以8个进程够用了。

配置完之后可以重启nginx,用ab工具或者wrk工具,可以进行性能测试。

在服务器上执行top,然后按1,就可以多个CPU工作情况,如果多个CPU内核的利用率差不多,就证明Nginx已经成功利用了多核CPU。

events

事件处理模型。

1

2

3

4

5

events {

use epoll;

worker_connections 65535;

multi_accept on;

}

use epoll:nginx采用epoll事件模型,处理效率高

work_connections:是单个worker进程允许客户端最大连接数,这个数值一般根据服务器性能和内存来制定,实际最大值就是worker进程数乘以work_connections,实际我们填入一个65535,足够了,这些都算并发值,一个网站的并发达到这么大的数量,也算一个大站了!

multi_accept :告诉nginx收到一个新连接通知后接受尽可能多的连接,默认是on,设置为on后,多个worker按串行方式来处理连接,也就是一个连接只有一个worker被唤醒,其他的处于休眠状态,设置为off后,多个worker按并行方式来处理连接,也就是一个连接会唤醒所有的worker,直到连接分配完毕,没有取得连接的继续休眠。当你的服务器连接数不多时,开启这个参数会让负载有一定的降低,但是当服务器的吞吐量很大时,为了效率,可以关闭这个参数。

重启

检查配置文件是否可用

1

nginx -t

重新加载配置文件

1

service nginx reload

或者重启

1

service nginx restart

进程信息

查看进程连接数

总连接数

1

ps -ef |wc -l

查询用户的连接数统计

1

ps -ef |awk '{print $1}' |sort |uniq -c |sort -rn

查看某个进程连接数:

1

2

lsof -i:8|wc -l

lsof -p 12345|wc -l

其中

-p:对应进程的PID

-i:对应进程的端口号

或者使用下面命令也能获取到

1

netstat -nat|grep -i 8018|wc -l

查看进程的线程数

物理内存决定的系统进程数上限

1

cat /proc/sys/kernel/threads-max

系统的进程或线程限制数

这个值表示进程ID的上限。为了兼容旧版,默认为32768(即两个字节)

1

cat /proc/sys/kernel/pid_max

用户最大进程或线程数

使用命令:

1

ulimit -u

ps -ef只打印进程,而ps -eLf会打印所有的线程

1

ps -eLf | grep java

ps -eLf各字段含义

UID:用户ID

PID:process id 进程id

PPID: parent process id 父进程id

LWP:表示这是个线程;要么是主线程(进程),要么是线程

NLWP: num of light weight process 轻量级进程数量,即线程数量

STIME: start time 启动时间

TIME: 占用的CPU总时间

TTY:该进程是在哪个终端运行的;pts/0255代表虚拟终端,一般是远程连接的终端;tty1tty7 代表本地控制台终端

CMD:进程的启动命令

查看pid

1

lsof -i:8018

假如pid为26281

查询线程

1

2

3

top -H -p ${pid}

# 或者

top -p ${pid} #然后 shitf + H

查询线程数量

1

cat /proc/${pid}/status

获取线程的PID

1

ls /proc/${pid}/task

树状显示线程

1

pstree -p ${pid}

列表显示线程

1

ps -hH -p ${pid}

进程命令数

查询进程正在运行的命令数

1

lsof |awk '{print $1}' |sort |uniq -c |sort -rn

# linux


扫描二维码推送至手机访问。

版权声明:本文由AR编程网发布,如需转载请注明出处。

本文链接:http://www.arlanguage.com/post/56.html

分享给朋友:

“Linux下各种连接数配置及高并发Nginx优化” 的相关文章

一次说清-Nginx反向代理及参数配置

我们在配置服务时常常会用到Nginx来设置反向代理,虽然常用,但是我们真的了解各个参数的意思吗?不如我们一起来看下吧。1、反向代理反向代理(reverse proxy)方式是指用代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络中的上游服务器,并将从上游服务器上得到的结果返回给I...

高端Linux 脚本很有用,赶紧学起来!

Linux 脚本?准确的说叫 Linux Shell 脚本,Shell 脚本是一种被设计用来运行命令行解释器,他是 Linux 系统的一大特色之一。命令行是 Linux 系统中一种非常重要的交互方式,而它的实现基于 Linux 内核和 Shell 程序,为用户提供了强大和灵活的操作方式。使用 Lin...

技巧:PHP版本怎样隐藏在Linux服务器

通常情况下,大多数安装web服务器软件的默认设置存在信息泄露,这些软件其中之一就是PHP。PHP是如今最流行的服务端html嵌入式语言之一。而在如今这个充满挑战的时代,有许多黑客会尝试发现你服务端的漏洞。因此,ehowstuff网站一篇简单描述如何在Linux服务器中隐藏PHP信息值得关注。(图片来...

Nginx实战-监控nginx.conf配置文件,配置文件修改自动重启nginx

1.1 实现目标在学习或者进行nginx测试的时候,耗费在 nginx -s reload/stop 上的命令时间很多,修改任意内容都需要重新启动或者停止启动,基本上状态就是在下面5个状态间来回切换vim nginx.conf修改nginx.conf保存nginx.conf重启nginx刷新浏览器....

Linux 网络延迟排查方法 linux延迟10秒

在 Linux 服务器中,可以通过内核调优、DPDK 以及 XDP 等多种方式提高服务器的抗攻击能力,降低 DDoS 对正常服务的影响。在应用程序中,可以使用各级缓存、WAF、CDN 等来缓解 DDoS 对应用程序的影响。但是需要注意的是,如果 DDoS 流量已经到达 Linux 服务器,那么即使应...

Nginx安全相关配置常用教程 nginx安全策略

1. 限制请求速度设置 Nginx、Nginx Plus 的连接请求在一个真实用户请求的合理范围内。比如,如果你觉得一个正常用户每两秒可以请求一次登录页面,你就可以设置 Nginx 每两秒钟接收一个客户端 IP 的请求(大约等同于每分钟30个请求)。limit_req_zone $binary_re...