加入收藏 | 设为首页 | 会员中心 | 我要投稿 聊城站长网 (https://www.0635zz.com/)- 智能语音交互、行业智能、AI应用、云计算、5G!
当前位置: 首页 > 服务器 > 系统 > 正文

CentOS6上mongodb连接数突破不了1000的解决办法

发布时间:2023-10-21 15:40:06 所属栏目:系统 来源:
导读:问题描述:

生产环境发现CPU满负荷运行,MongoDB的连接数始终突破不了1000。

解决方案:

1、查看mongodb的日志,报下面的错误:

Wed Nov 21 15:26:09 [initandlisten] pthread_create failed: errno
问题描述:
 
生产环境发现CPU满负荷运行,MongoDB的连接数始终突破不了1000。
 
解决方案:
 
1、查看mongodb的日志,报下面的错误:
 
Wed Nov 21 15:26:09 [initandlisten] pthread_create failed: errno:11 Resource temporarily unavailable   
 
Wed Nov 21 15:26:09 [initandlisten] can't create new thread, closing connection
 
复制代码
 
2、在一台一样的centos5的机器上测试,发现连接2000个连接一点问题都没有。  
 
3、上google查找问题,关键字“mongod.conf can’t create new thread, closing connection”    
 
4、找到问题所在,原来centos6与之前centos5不同,多了一个默认的限制用户nproc的配置文件 :/etc/security/limits.d/90-nproc.conf ,默认把普通用户的nproc设置成1024,而mongodb正好又是使用mongod这个非root用户跑的,所以连接数一直上不去了。    
 
5、更改/etc/security/limits.d/90-nproc.conf ,把1024改成20480 ,问题解决。
 
[root@test ~]# cat /etc/security/limits.d/90-nproc.conf    
 
# Default limit for number of user's processes to prevent    
 
# accidental fork bombs.    
 
# See rhbz #432903 for reasoning.
 
*          soft    nproc     20480
 
复制代码
 
打开文件句柄数和最大用户进程数限制:
 
在Linux下面部署应用的时候,有时候会遇上Socket/File: Can’t open so many files的问题;这个值也会影响服务器的最大并发数,其实Linux是有文件句柄限制的,而且Linux默认不是很高,一般都是1024,生产服务器用其实很容易就达到这个数量。下面说的是,如何通过正解配置来改正这个系统默认值。
 
查看方法
 
我们可以用ulimit -a来查看所有限制值  
 
[root@test ~]# ulimit -a    
 
core file size          (blocks, -c) 0    
 
data seg size           (kbytes, -d) unlimited    
 
scheduling priority             (-e) 0    
 
file size               (blocks, -f) unlimited    
 
pending signals                 (-i) 256469    
 
max locked memory       (kbytes, -l) 64    
 
max memory size         (kbytes, -m) unlimited    
 
open files                      (-n) 64000    
 
pipe size            (512 bytes, -p) 8    
 
POSIX message queues     (bytes, -q) 819200    
 
real-time priority              (-r) 0    
 
stack size              (kbytes, -s) 10240    
 
cpu time               (seconds, -t) unlimited    
 
max user processes              (-u) 65536    
 
virtual memory          (kbytes, -v) unlimited    
 
file locks                      (-x) unlimited
 
复制代码
 
其中 "open files (-n)"是Linux操作系统对一个进程打开的文件句柄数量的限制,默认是1024。  
 
(也包含打开的SOCKET数量,可影响数据库的并发连接数目)。
 
正确的做法,应该是修改/etc/security/limits.conf  
 
里面有很详细的注释,比如    
 
hadoop  soft   nofile   32768    
 
hadoop hard nofile 65536
 
hadoop soft   nproc   32768  
 
hadoop hard nproc 65536
 
就可以将文件句柄限制统一改成软32768,硬65536。配置文件最前面的是指domain,设置为星号代表全局,另外你也可以针对不同的用户做出不同的限制。
 
注意:这个当中的硬限制是实际的限制,而软限制,是warnning限制,只会做出warning;其实ulimit命令本身就有分软硬设置,加-H就是硬,加-S就是软
 
默认显示的是软限制,如果运行ulimit命令修改的时候没有加上的话,就是两个参数一起改变。
 
RHE6及以后 nproc的修改在/etc/security/limits.d/90-nproc.conf中
 
如何修改连接数限制:
 
临时修改(当前shell下更改用户可打开进程数):  
 
# ulimit -u xxx
 
复制代码
 
永久修改, 保险的做法是同时修改/etc/security/limits.d/90-nproc.conf 和 /etc/security/limits.conf如下:
 
limits_conf = /etc/security/limits.conf:
 
*   soft   nproc    s1    
 
*   hard   nproc    h2
 
nproc_conf = /etc/security/limits.d/90-nproc.conf:  
 
*   soft    nproc    s2    
 
*   hard    nproc    h3
 
s1,h2,s2,h3必须是具体有意义的数. 此时ulimit -u显示的值为=min(h2,h3)
 
因此通常就设置s1=s2=h2=h3, 例如在limits_conf和nproc_conf中同时加入:  
 
*   soft   nproc   65536    
 
*   hard   nproc   65536
 
 
 

(编辑:聊城站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章