網(wǎng)上有很多關(guān)于初始化pos機(jī)參數(shù),百萬(wàn)并發(fā)服務(wù)器系統(tǒng)參數(shù)調(diào)優(yōu)的知識(shí),也有很多人為大家解答關(guān)于初始化pos機(jī)參數(shù)的問(wèn)題,今天pos機(jī)之家(www.fqd168.com)為大家整理了關(guān)于這方面的知識(shí),讓我們一起來(lái)看下吧!
本文目錄一覽:
初始化pos機(jī)參數(shù)
一、本文目的在編寫(xiě)服務(wù)器時(shí),如果服務(wù)器的設(shè)計(jì)初衷是要可以承擔(dān)百萬(wàn)、千萬(wàn)的客戶端連接,那么默認(rèn)的情況下,Linux操作系統(tǒng)提供的相關(guān)配置參數(shù)(比如說(shuō)進(jìn)程可分配的文件數(shù)目等)是不能夠滿足我們的程序需求的,因此需要自己調(diào)整系統(tǒng)的相關(guān)參數(shù)并發(fā)的概念是什么?什么是并發(fā)?
對(duì)于服務(wù)器并發(fā)的概念,下面幾點(diǎn)是錯(cuò)誤的定義:①服務(wù)器處理客戶端請(qǐng)求的數(shù)量:沒(méi)有時(shí)間、空間等限制,因此不能作為并發(fā)的概念②單位時(shí)間內(nèi),能夠處理請(qǐng)求的數(shù)量:這也是不正確的定義,因?yàn)檫@個(gè)定義是針對(duì)于服務(wù)器吞吐量(qps)的,而不是并發(fā)其他等......下面幾點(diǎn)組成在一起可以作為服務(wù)器“并發(fā)”的概念:①服務(wù)器能夠同時(shí)承擔(dān)的客戶端數(shù)量(最基本要求)②能處理指定數(shù)量以上的相應(yīng)請(qǐng)求③能夠?qū)?shù)據(jù)庫(kù)進(jìn)行操作④有磁盤(pán)的操作⑤CPU的占用率最好不要超過(guò)60%⑥內(nèi)存占用率最好不要超過(guò)80%視頻資料詳解:
實(shí)現(xiàn)單機(jī)百萬(wàn)連接丨優(yōu)化三次握手四次揮手
揭秘百萬(wàn)并發(fā)服務(wù)器的奧秘
要C/C++ Linux服務(wù)器架構(gòu)師學(xué)習(xí)資料后臺(tái)私信“1”獲?。ㄙY料包括C/C++,Linux,golang技術(shù),Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒體,CDN,P2P,K8S,Docker,TCP/IP,協(xié)程,DPDK,ffmpeg等),免費(fèi)分享二、本文環(huán)境搭建本文準(zhǔn)備了兩份代碼,作為測(cè)試環(huán)境:reactor.c:作為服務(wù)端,采用單進(jìn)程reactor模式編寫(xiě),持續(xù)接收客戶端的連接,并且與客戶端有數(shù)據(jù)的讀寫(xiě)(recv()、send())mul_port_client_epoll.c:作為客戶端,會(huì)向reactor.c服務(wù)端發(fā)起不超過(guò)340000的客戶端連接,并且每個(gè)客戶端都會(huì)與服務(wù)端有數(shù)據(jù)的讀寫(xiě)(recv()、send())reactor.c
Github源碼鏈接參閱:https://github.com/dongyusheng/csdn-code/blob/master/server-client/reactor.c// reactor.c// 源碼鏈接: https://github.com/dongyusheng/csdn-code/blob/master/server-client/reactor.c#include <stdio.h>#include <stdlib.h>#include <string.h>#include <sys/socket.h>#include <sys/epoll.h>#include <arpa/inet.h>#include <fcntl.h>#include <unistd.h>#include <errno.h>#include <time.h> #define BUFFER_lenGTH4096#define MAX_EPOLL_EVENTS1024#define SERVER_PORT 8888 typedef int Ncallback(int ,int, void*); struct ntyevent { int fd; int events; void *arg; int (*callback)(int fd, int events, void *arg); int status; char buffer[BUFFER_LENGTH]; int length; long last_active;}; struct ntyreactor { int epfd; struct ntyevent *events;}; int recv_cb(int fd, int events, void *arg);int send_cb(int fd, int events, void *arg);int nty_event_set(struct ntyevent *ev, int fd, NCALLBACK callback, void *arg) {ev->fd = fd;ev->callback = callback;ev->events = 0;ev->arg = arg;ev->last_active = time(NULL); return 0;} int nty_event_add(int epfd, int events, struct ntyevent *ev) { struct epoll_event ep_ev = {0, {0}};ep_ev.data.ptr = ev;ep_ev.events = ev->events = events; int op; if (ev->status == 1) { op = EPOLL_CTL_MOD;} else {op = EPOLL_CTL_ADD; ev->status = 1;} if (epoll_ctl(epfd, op, ev->fd, &ep_ev) < 0) { printf("event add failed [fd=%d], events[%d]\", ev->fd, events); return -1;} return 0;} int nty_event_del(int epfd, struct ntyevent *ev) { struct epoll_event ep_ev = {0, {0}}; if (ev->status != 1) { return -1;} ep_ev.data.ptr = ev;ev->status = 0;epoll_ctl(epfd, EPOLL_CTL_DEL, ev->fd, &ep_ev); return 0;} int recv_cb(int fd, int events, void *arg) { struct ntyreactor *reactor = (struct ntyreactor*)arg; struct ntyevent *ev = reactor->events + fd; int len = recv(fd, ev->buffer, BUFFER_LENGTH, 0);nty_event_del(reactor->epfd, ev); if (len > 0) { ev->length = len;ev->buffer[len] = '\\0'; printf("C[%d]:%s\", fd, ev->buffer); nty_event_set(ev, fd, send_cb, reactor);nty_event_add(reactor->epfd, EPOLLOUT, ev); } else if (len == 0) { close(ev->fd); printf("[fd=%d] pos[%ld], closed\", fd, ev-reactor->events); } else { //if(errno == EAGAIN || errno == EWOULDBLOCK) //continue; return 0; close(ev->fd); printf("recv[fd=%d] error[%d]:%s\", fd, errno, strerror(errno)); } return len;} int send_cb(int fd, int events, void *arg) { struct ntyreactor *reactor = (struct ntyreactor*)arg; struct ntyevent *ev = reactor->events + fd; int len = send(fd, ev->buffer, ev->length, 0); if (len > 0) { printf("send[fd=%d], [%d]%s\", fd, len, ev->buffer);nty_event_del(reactor->epfd, ev);nty_event_set(ev, fd, recv_cb, reactor);nty_event_add(reactor->epfd, EPOLLIN, ev); } else {close(ev->fd);nty_event_del(reactor->epfd, ev); printf("send[fd=%d] error %s\", fd, strerror(errno));} return len;} int accept_cb(int fd, int events, void *arg) { struct ntyreactor *reactor = (struct ntyreactor*)arg; if (reactor == NULL) return -1; struct sockaddr_in client_addr; socklen_t len = sizeof(client_addr); int clientfd; if ((clientfd = accept(fd, (struct sockaddr*)&client_addr, &len)) == -1) { if (errno != EAGAIN && errno != EINTR) {} printf("accept: %s\", strerror(errno)); return -1;} int i = 0; do { for (i = 0;i < MAX_EPOLL_EVENTS;i ++) { if (reactor->events[i].status == 0) { break;}} if (i == MAX_EPOLL_EVENTS) { printf("%s: max connect limit[%d]\", __func__, MAX_EPOLL_EVENTS); break;} int flag = 0; if ((flag = fcntl(clientfd, F_SETFL, O_NONBLOCK)) < 0) { printf("%s: fcntl nonblocking failed, %d\", __func__, MAX_EPOLL_EVENTS); break;}nty_event_set(&reactor->events[clientfd], clientfd, recv_cb, reactor);nty_event_add(reactor->epfd, EPOLLIN, &reactor->events[clientfd]);} while (0); printf("new connect [%s:%d][time:%ld], pos[%d]\", inet_ntoa(client_addr.sin_addr), ntohs(client_addr.sin_port), reactor->events[i].last_active, i); return 0;} int init_sock(short port) { int fd = socket(AF_INET, SOCK_STREAM, 0);fcntl(fd, F_SETFL, O_NONBLOCK); struct sockaddr_in server_addr; memset(&server_addr, 0, sizeof(server_addr));server_addr.sin_family = AF_INET;server_addr.sin_addr.s_addr = htonl(INADDR_ANY);server_addr.sin_port = htons(port);bind(fd, (struct sockaddr*)&server_addr, sizeof(server_addr)); if (listen(fd, 20) < 0) { printf("listen failed : %s\", strerror(errno));} return fd;} int ntyreactor_init(struct ntyreactor *reactor) { if (reactor == NULL) return -1; memset(reactor, 0, sizeof(struct ntyreactor));reactor->epfd = epoll_create(1); if (reactor->epfd <= 0) { printf("create epfd in %s err %s\", __func__, strerror(errno)); return -2;}reactor->events = (struct ntyevent*)malloc((MAX_EPOLL_EVENTS) * sizeof(struct ntyevent)); if (reactor->events == NULL) { printf("create epfd in %s err %s\", __func__, strerror(errno));close(reactor->epfd); return -3;} return 0;} int ntyreactor_destroy(struct ntyreactor *reactor) {close(reactor->epfd); free(reactor->events);} int ntyreactor_addlistener(struct ntyreactor *reactor, int sockfd, NCALLBACK *acceptor) { if (reactor == NULL) return -1; if (reactor->events == NULL) return -1;nty_event_set(&reactor->events[sockfd], sockfd, acceptor, reactor);nty_event_add(reactor->epfd, EPOLLIN, &reactor->events[sockfd]); return 0;} int ntyreactor_run(struct ntyreactor *reactor) { if (reactor == NULL) return -1; if (reactor->epfd < 0) return -1; if (reactor->events == NULL) return -1; struct epoll_event events[MAX_EPOLL_EVENTS+1]; int checkpos = 0, i; while (1) { long now = time(NULL); for (i = 0;i < 100;i ++, checkpos ++) { if (checkpos == MAX_EPOLL_EVENTS) {checkpos = 0;} if (reactor->events[checkpos].status != 1) { continue;} long duration = now - reactor->events[checkpos].last_active; if (duration >= 60) {close(reactor->events[checkpos].fd); printf("[fd=%d] timeout\", reactor->events[checkpos].fd);nty_event_del(reactor->epfd, &reactor->events[checkpos]);}} int nready = epoll_wait(reactor->epfd, events, MAX_EPOLL_EVENTS, 1000); if (nready < 0) { printf("epoll_wait error, exit\"); continue;} for (i = 0;i < nready;i ++) { struct ntyevent *ev = (struct ntyevent*)events[i].data.ptr; if ((events[i].events & EPOLLIN) && (ev->events & EPOLLIN)) {ev->callback(ev->fd, events[i].events, ev->arg);} if ((events[i].events & EPOLLOUT) && (ev->events & EPOLLOUT)) {ev->callback(ev->fd, events[i].events, ev->arg);}}}} int main(int argc, char *argv[]) { unsigned short port = SERVER_PORT; if (argc == 2) {port = atoi(argv[1]);} int sockfd = init_sock(port); struct ntyreactor *reactor = (struct ntyreactor*)malloc(sizeof(struct ntyreactor));ntyreactor_init(reactor);ntyreactor_addlistener(reactor, sockfd, accept_cb);ntyreactor_run(reactor);ntyreactor_destroy(reactor);close(sockfd); return 0;}
mul_port_client_epoll.c
Github源碼鏈接參閱:https://github.com/dongyusheng/csdn-code/blob/master/server-client/mul_port_client_epoll.c// mul_port_client_epoll.c// 源碼鏈接: https://github.com/dongyusheng/csdn-code/blob/master/server-client/mul_port_client_epoll.c#include <stdio.h>#include <string.h>#include <stdlib.h>#include <sys/types.h>#include <sys/socket.h>#include <sys/epoll.h>#include <errno.h>#include <netinet/tcp.h>#include <arpa/inet.h>#include <netdb.h>#include <fcntl.h>#include <unistd.h>#include <time.h>#include <sys/time.h> #define MAX_BUFFER128#define MAX_EPOLLSIZE(384*1024)#define MAX_PORT1 #define TIME_SUB_MS(tv1, tv2) ((tv1.tv_sec - tv2.tv_sec) * 1000 + (tv1.tv_usec - tv2.tv_usec) / 1000) int isContinue = 0; static int ntySetNonblock(int fd) { int flags; flags = fcntl(fd, F_GETFL, 0); if (flags < 0) return flags;flags |= O_NONBLOCK; if (fcntl(fd, F_SETFL, flags) < 0) return -1; return 0;} static int ntySetReUseAddr(int fd) { int reuse = 1; return setsockopt(fd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));} int main(int argc, char **argv) { if (argc <= 2) { printf("Usage: %s ip port\", argv[0]); exit(0);} // 獲取要連接的服務(wù)端的ip和端口 const char *ip = argv[1]; int port = atoi(argv[2]); int connections = 0; char buffer[128] = {0}; int i = 0, index = 0; // 創(chuàng)建epoll struct epoll_event events[MAX_EPOLLSIZE]; int epoll_fd = epoll_create(MAX_EPOLLSIZE); strcpy(buffer, " Data From MulClient\"); // 初始化服務(wù)器地址 struct sockaddr_in addr; memset(&addr, 0, sizeof(struct sockaddr_in));addr.sin_family = AF_INET;addr.sin_addr.s_addr = inet_addr(ip); struct timeval tv_begin;gettimeofday(&tv_begin, NULL); while (1) { if (++index >= MAX_PORT) index = 0; struct epoll_event ev; int sockfd = 0; // 如果連接數(shù)小于340000,繼續(xù)連接服務(wù)器 if (connections < 340000 && !isContinue) {sockfd = socket(AF_INET, SOCK_STREAM, 0); if (sockfd == -1) {perror("socket"); goto err;} //ntySetReUseAddr(sockfd);addr.sin_port = htons(port + index); // 連接服務(wù)器 if (connect(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {perror("connect"); goto err;} ntySetNonblock(sockfd); // 將套接字設(shè)置為非阻塞ntySetReUseAddr(sockfd); // 設(shè)置可重用本地地址 // 向服務(wù)器發(fā)送數(shù)據(jù) sprintf(buffer, "Hello Server: client --> %d\", connections);send(sockfd, buffer, strlen(buffer), 0); // 將套接字設(shè)置為可讀可寫(xiě),然后加入到epoll_wait()中ev.data.fd = sockfd;ev.events = EPOLLIN | EPOLLOUT;epoll_ctl(epoll_fd, EPOLL_CTL_ADD, sockfd, &ev); connections ++;} // 如果每連接了一千個(gè)客戶端或者連接數(shù)超過(guò)340000,那么就執(zhí)行這個(gè)條件 if (connections % 1000 == 999 || connections >= 340000) { struct timeval tv_cur; memcpy(&tv_cur, &tv_begin, sizeof(struct timeval)); gettimeofday(&tv_begin, NULL); // 打印一下每連接1000個(gè)客戶端所消耗的時(shí)間 int time_used = TIME_SUB_MS(tv_begin, tv_cur); printf("connections: %d, sockfd:%d, time_used:%d\", connections, sockfd, time_used); // 進(jìn)行epoll_wait() int nfds = epoll_wait(epoll_fd, events, connections, 100); for (i = 0;i < nfds;i ++) { int clientfd = events[i].data.fd; // 執(zhí)行寫(xiě) if (events[i].events & EPOLLOUT) { sprintf(buffer, "data from %d\", clientfd);send(sockfd, buffer, strlen(buffer), 0);} // 執(zhí)行讀 else if (events[i].events & EPOLLIN) { char rBuffer[MAX_BUFFER] = {0}; ssize_t length = recv(sockfd, rBuffer, MAX_BUFFER, 0); if (length > 0) { printf(" RecvBuffer:%s\", rBuffer); if (!strcmp(rBuffer, "quit")) {isContinue = 0;} } else if (length == 0) { printf(" Disconnect clientfd:%d\", clientfd);connections --;close(clientfd);} else { if (errno == EINTR) continue; printf(" Error clientfd:%d, errno:%d\", clientfd, errno);close(clientfd);}} else { printf(" clientfd:%d, errno:%d\", clientfd, errno);close(clientfd);}}} // 休眠1000微秒(0.01秒)usleep(1 * 1000);} return 0;err: printf("error : %s\", strerror(errno)); return 0;}三、第1次測(cè)試
測(cè)試如下
左側(cè)運(yùn)行服務(wù)端程序reactor(111.229.177.161:8888),右側(cè)運(yùn)行客戶端程序mul_port_client_epoll去連接服務(wù)器效果如下:左側(cè)服務(wù)端接收了1021個(gè)客戶端(除去描述符0、1、2)之后程序報(bào)錯(cuò),顯示無(wú)法繼續(xù)接收客戶端的連接右側(cè)客戶端也報(bào)錯(cuò),無(wú)法繼續(xù)連接服務(wù)端原因分析
默認(rèn)情況下,系統(tǒng)有限制,一個(gè)進(jìn)程最多只能1024個(gè)文件(或文件描述符)。我們的客戶端發(fā)起來(lái)了超過(guò)1024個(gè)客戶端的連接,因此程序報(bào)錯(cuò)通過(guò)ulimit命令可以查看,如下:解決方案(修改最大文件數(shù))
第一步:通過(guò)ulimit命令或者修改/etc/security/limits.conf配置文件,修改用戶可打開(kāi)的最大文件描述符個(gè)數(shù)。由于ulimit命令修改的結(jié)果不能永久保存,因此我們此處修改/etc/security/limits.conf配置文件(下面圖1)下面修改/etc/security/limits.conf,將所有用戶可打開(kāi)的文件描述符個(gè)數(shù)修改為1048576(1024*1024)(下面圖2)修改完成之后退出當(dāng)前會(huì)話(不必重啟),然后重新開(kāi)啟會(huì)話,通過(guò)ulinit命令可以看到修改成功然后再把客戶端的機(jī)器也全部修改一下,別忘記了第二步:(下面圖1)上面我們雖然修改了/etc/security/limits.conf,但是該配置文件約束的是“用戶級(jí)別”的系統(tǒng)限制。還有兩個(gè)“內(nèi)核級(jí)別”的配置參數(shù)與文件描述符有關(guān)。一個(gè)為nr_open(表示單個(gè)進(jìn)程打開(kāi)文件句柄數(shù)上限),另一個(gè)為file-max(表示系統(tǒng)范圍內(nèi)所有進(jìn)程可打開(kāi)的文件句柄的數(shù)量限制)其中nr_open默認(rèn)為1048576,我們就不需要修改了file-max默認(rèn)為180566,因此我們需要將其修改為1048576(下面圖2)修改/etc/sysctl.conf文件,在里面修改file-max的值為1048576,然后保存退出(下面圖3)執(zhí)行sysctl的命令,將/etc/sysctl.conf文件的內(nèi)容更新到/proc/sys/fs/file-max中生效,令執(zhí)行完之后查看/proc/sys/fs/file-max文件,更新成功然后再把客戶端的機(jī)器也全部修改一下,別忘記了第三步:上面我們將進(jìn)程可分配描述符數(shù)量都增大了,那么還需要修改服務(wù)端程序reactor.c中的MAX_EPOLL_EVENTS宏,因?yàn)槠浯淼氖莈poll_wait()可以處理事件的數(shù)量,因?yàn)榭蛻舳藬?shù)量增加了,因此該宏也要增加下面我們將該宏設(shè)置為1024*512=524288(由于本人機(jī)器內(nèi)存不足,只能修改這個(gè)大,如果修改再大程序就運(yùn)行不了,因?yàn)闊o(wú)法為程序分配更多的內(nèi)存。如果你的機(jī)器內(nèi)存夠大,那么可以將這個(gè)數(shù)值再往上調(diào);如果你的機(jī)器內(nèi)存不足,那么就將這個(gè)值調(diào)?。┬薷耐瓿芍笾匦戮幾greactor.c#define MAX_EPOLL_EVENTS (1024 * 512)
上面所有的內(nèi)容修改完成之后,進(jìn)入下面的第2次測(cè)試四、第2次測(cè)試測(cè)試如下
左側(cè)運(yùn)行服務(wù)端程序reactor(111.229.177.161:8888),右側(cè)運(yùn)行兩個(gè)客戶端程序mul_port_client_epoll去連接服務(wù)器效果如下:左側(cè)服務(wù)端持續(xù)接收客戶端的連接右側(cè)兩個(gè)客戶端向服務(wù)端發(fā)起連接,其中一個(gè)客戶端只連接了兩萬(wàn)多個(gè)就報(bào)錯(cuò)退出了,另一個(gè)客戶端只連接了一萬(wàn)多個(gè)就報(bào)錯(cuò)退出了左側(cè)服務(wù)端沒(méi)有報(bào)錯(cuò),只是沒(méi)有客戶端再連接進(jìn)來(lái)了原因分析
此處要介紹“五元組”的概念了,這個(gè)概念在下面的幾次測(cè)試中都要用到一個(gè)套接字fd就對(duì)應(yīng)一個(gè)“五元組”,一個(gè)五元組包含下面幾項(xiàng)內(nèi)容:1.源IP地址2.目的IP地址3.源端口4.目的端口5.協(xié)議類型(TCP、UDP等)因此,我們上面的兩個(gè)客戶端加起來(lái)最多只能創(chuàng)建四萬(wàn)個(gè)套接字就報(bào)錯(cuò)的原因是:源IP地址、目的IP地址、協(xié)議類型(TCP)這三者都保持不變、目的端口只有一個(gè)也保持不變,唯一可以變化的就是源端口(也就是客戶端的端口)我們知道,一個(gè)系統(tǒng)的端口最多只能有65535個(gè),其中有一些已經(jīng)被其他服務(wù)使用了,因此客戶端可以使用的端口大概只有四五萬(wàn)個(gè),所以客戶端也就只能創(chuàng)建四五萬(wàn)個(gè)套接字,所以上面我們兩個(gè)客戶端總共加起來(lái)只創(chuàng)建了四五萬(wàn)個(gè)套接字就不能再繼續(xù)創(chuàng)建套接字了概括來(lái)說(shuō),你能有多少種“五元組”類型,那么你就能建立多少個(gè)套接字連接解決方案
通過(guò)上面的分析我們知道,主要的限制原因就在端口的限制上,因此下面我們讓服務(wù)端程序監(jiān)聽(tīng)在多個(gè)端口上,這樣一來(lái)可以使用的“五元組”組合就可以更多,那么我們可以創(chuàng)建的套接字fd也就更多第一步:修改服務(wù)端程序reactor.c,使其監(jiān)聽(tīng)在5個(gè)端口上,也就是啟動(dòng)了5個(gè)Tcp Server(隨意多少個(gè),只要端口多了,就能承載更多的客戶端,此處我們就只設(shè)置為5個(gè))代碼變化不多,只是新增了一個(gè)LISTEN_PORT_COUNT宏,然后修改了main()函數(shù)使其監(jiān)聽(tīng)在5個(gè)端口上,其余代碼全部不變修改完成之后重新編譯// reactor.c其余代碼不變, 只需要修改下面的內(nèi)容即可#include <stdio.h>#include <stdlib.h>#include <string.h>#include <sys/socket.h>#include <sys/epoll.h>#include <arpa/inet.h>#include <fcntl.h>#include <unistd.h>#include <errno.h>#include <time.h> #define BUFFER_LENGTH4096#define MAX_EPOLL_EVENTS1024#define SERVER_PORT 8888 // 新增一個(gè)宏, 表示監(jiān)聽(tīng)的端口數(shù)量#define LISTEN_PORT_COUNT 5 typedef int NCALLBACK(int ,int, void*); struct ntyevent { int fd; int events; void *arg; int (*callback)(int fd, int events, void *arg); int status; char buffer[BUFFER_LENGTH]; int length; long last_active;}; struct ntyreactor { int epfd; struct ntyevent *events;}; int recv_cb(int fd, int events, void *arg);int send_cb(int fd, int events, void *arg);int nty_event_set(struct ntyevent *ev, int fd, NCALLBACK callback, void *arg) {ev->fd = fd;ev->callback = callback;ev->events = 0;ev->arg = arg;ev->last_active = time(NULL); return 0;} int nty_event_add(int epfd, int events, struct ntyevent *ev) { struct epoll_event ep_ev = {0, {0}};ep_ev.data.ptr = ev;ep_ev.events = ev->events = events; int op; if (ev->status == 1) { op = EPOLL_CTL_MOD;} else {op = EPOLL_CTL_ADD; ev->status = 1;} if (epoll_ctl(epfd, op, ev->fd, &ep_ev) < 0) { printf("event add failed [fd=%d], events[%d]\", ev->fd, events); return -1;} return 0;} int nty_event_del(int epfd, struct ntyevent *ev) { struct epoll_event ep_ev = {0, {0}}; if (ev->status != 1) { return -1;} ep_ev.data.ptr = ev;ev->status = 0;epoll_ctl(epfd, EPOLL_CTL_DEL, ev->fd, &ep_ev); return 0;} int recv_cb(int fd, int events, void *arg) { struct ntyreactor *reactor = (struct ntyreactor*)arg; struct ntyevent *ev = reactor->events + fd; int len = recv(fd, ev->buffer, BUFFER_LENGTH, 0);nty_event_del(reactor->epfd, ev); if (len > 0) { ev->length = len;ev->buffer[len] = '\\0'; printf("C[%d]:%s\", fd, ev->buffer); nty_event_set(ev, fd, send_cb, reactor);nty_event_add(reactor->epfd, EPOLLOUT, ev); } else if (len == 0) { close(ev->fd); printf("[fd=%d] pos[%ld], closed\", fd, ev-reactor->events); } else { //if(errno == EAGAIN || errno == EWOULDBLOCK) //continue; return 0; close(ev->fd); printf("recv[fd=%d] error[%d]:%s\", fd, errno, strerror(errno)); } return len;} int send_cb(int fd, int events, void *arg) { struct ntyreactor *reactor = (struct ntyreactor*)arg; struct ntyevent *ev = reactor->events + fd; int len = send(fd, ev->buffer, ev->length, 0); if (len > 0) { printf("send[fd=%d], [%d]%s\", fd, len, ev->buffer);nty_event_del(reactor->epfd, ev);nty_event_set(ev, fd, recv_cb, reactor);nty_event_add(reactor->epfd, EPOLLIN, ev); } else {close(ev->fd);nty_event_del(reactor->epfd, ev); printf("send[fd=%d] error %s\", fd, strerror(errno));} return len;} int accept_cb(int fd, int events, void *arg) { struct ntyreactor *reactor = (struct ntyreactor*)arg; if (reactor == NULL) return -1; struct sockaddr_in client_addr; socklen_t len = sizeof(client_addr); int clientfd; if ((clientfd = accept(fd, (struct sockaddr*)&client_addr, &len)) == -1) { if (errno != EAGAIN && errno != EINTR) {} printf("accept: %s\", strerror(errno)); return -1;} int i = 0; do { for (i = 0;i < MAX_EPOLL_EVENTS;i ++) { if (reactor->events[i].status == 0) { break;}} if (i == MAX_EPOLL_EVENTS) { printf("%s: max connect limit[%d]\", __func__, MAX_EPOLL_EVENTS); break;} int flag = 0; if ((flag = fcntl(clientfd, F_SETFL, O_NONBLOCK)) < 0) { printf("%s: fcntl nonblocking failed, %d\", __func__, MAX_EPOLL_EVENTS); break;}nty_event_set(&reactor->events[clientfd], clientfd, recv_cb, reactor);nty_event_add(reactor->epfd, EPOLLIN, &reactor->events[clientfd]);} while (0); printf("new connect [%s:%d][time:%ld], pos[%d]\", inet_ntoa(client_addr.sin_addr), ntohs(client_addr.sin_port), reactor->events[i].last_active, i); return 0;} int init_sock(short port) { int fd = socket(AF_INET, SOCK_STREAM, 0);fcntl(fd, F_SETFL, O_NONBLOCK); struct sockaddr_in server_addr; memset(&server_addr, 0, sizeof(server_addr));server_addr.sin_family = AF_INET;server_addr.sin_addr.s_addr = htonl(INADDR_ANY);server_addr.sin_port = htons(port);bind(fd, (struct sockaddr*)&server_addr, sizeof(server_addr)); if (listen(fd, 20) < 0) { printf("listen failed : %s\", strerror(errno));} return fd;} int ntyreactor_init(struct ntyreactor *reactor) { if (reactor == NULL) return -1; memset(reactor, 0, sizeof(struct ntyreactor));reactor->epfd = epoll_create(1); if (reactor->epfd <= 0) { printf("create epfd in %s err %s\", __func__, strerror(errno)); return -2;}reactor->events = (struct ntyevent*)malloc((MAX_EPOLL_EVENTS) * sizeof(struct ntyevent)); if (reactor->events == NULL) { printf("create epfd in %s err %s\", __func__, strerror(errno));close(reactor->epfd); return -3;} return 0;} int ntyreactor_destroy(struct ntyreactor *reactor) {close(reactor->epfd); free(reactor->events);} int ntyreactor_addlistener(struct ntyreactor *reactor, int sockfd, NCALLBACK *acceptor) { if (reactor == NULL) return -1; if (reactor->events == NULL) return -1;nty_event_set(&reactor->events[sockfd], sockfd, acceptor, reactor);nty_event_add(reactor->epfd, EPOLLIN, &reactor->events[sockfd]); return 0;} int ntyreactor_run(struct ntyreactor *reactor) { if (reactor == NULL) return -1; if (reactor->epfd < 0) return -1; if (reactor->events == NULL) return -1; struct epoll_event events[MAX_EPOLL_EVENTS+1]; int checkpos = 0, i; while (1) { long now = time(NULL); for (i = 0;i < 100;i ++, checkpos ++) { if (checkpos == MAX_EPOLL_EVENTS) {checkpos = 0;} if (reactor->events[checkpos].status != 1) { continue;} long duration = now - reactor->events[checkpos].last_active; if (duration >= 60) {close(reactor->events[checkpos].fd); printf("[fd=%d] timeout\", reactor->events[checkpos].fd);nty_event_del(reactor->epfd, &reactor->events[checkpos]);}} int nready = epoll_wait(reactor->epfd, events, MAX_EPOLL_EVENTS, 1000); if (nready < 0) { printf("epoll_wait error, exit\"); continue;} for (i = 0;i < nready;i ++) { struct ntyevent *ev = (struct ntyevent*)events[i].data.ptr; if ((events[i].events & EPOLLIN) && (ev->events & EPOLLIN)) {ev->callback(ev->fd, events[i].events, ev->arg);} if ((events[i].events & EPOLLOUT) && (ev->events & EPOLLOUT)) {ev->callback(ev->fd, events[i].events, ev->arg);}}}} int main(int argc, char *argv[]) { unsigned short port = SERVER_PORT; if (argc == 2) {port = atoi(argv[1]);} struct ntyreactor *reactor = (struct ntyreactor*)malloc(sizeof(struct ntyreactor));ntyreactor_init(reactor); int listened[LISTEN_PORT_COUNT]; int i = 0; for(i = 0; i < LISTEN_PORT_COUNT; ++i) { listened[i] = init_sock(port + i); ntyreactor_addlistener(reactor, listened[i], accept_cb); } ntyreactor_run(reactor); ntyreactor_destroy(reactor); for(i = 0; i < LISTEN_PORT_COUNT; ++i) { close(listened[i]); } return 0;}第二步:修改客戶端程序mul_port_client_epoll.c,將其MAX_PORT宏修改為5即可,修改完成之后,其就會(huì)向5個(gè)服務(wù)端都發(fā)起連接修改完成之后重新編譯
#define MAX_PORT 5
備注(必看)
此處出錯(cuò)的場(chǎng)景在實(shí)際開(kāi)發(fā)中是不會(huì)出現(xiàn)的,因?yàn)樵趯?shí)際生活中,不會(huì)出現(xiàn)一個(gè)系統(tǒng)中有上萬(wàn)的客戶端(IP都一致),因此出現(xiàn)了這種“五元組”組合用盡的情況在實(shí)際中,每個(gè)客戶端的IP地址都是不同的,因此它們的“五元組”類型都是不同的,因此就不會(huì)出現(xiàn)這種因?yàn)槎丝诒挥猛陱亩鴮?dǎo)致“五元組”組合被用盡的情況修改完成之后進(jìn)行下面的第3次測(cè)試五、第3次測(cè)試測(cè)試如下
左側(cè)運(yùn)行服務(wù)端程序reactor(111.229.177.161:8888),右側(cè)運(yùn)行兩個(gè)客戶端程序mul_port_client_epoll去連接服務(wù)器效果如下:左側(cè)服務(wù)端持續(xù)接收客戶端的連接右側(cè)兩個(gè)客戶端向服務(wù)端發(fā)起連接,但是當(dāng)兩個(gè)客戶端都連接到64999的時(shí)候,客戶端不動(dòng)了,阻塞了(程序沒(méi)有報(bào)錯(cuò),也沒(méi)有退出)左側(cè)服務(wù)端也跟著阻塞了(程序沒(méi)有報(bào)錯(cuò),也沒(méi)有退出)過(guò)了一小會(huì)之后,客戶端顯示連接超時(shí),然后程序退出原因分析
nf_conntrack_max限制了每一個(gè)程序可以建立的TCP的連接的最大數(shù)目(是連接數(shù)目,而不是套接字描述符的個(gè)數(shù))解決方案
我們只需要修改客戶端的內(nèi)核參數(shù)nf_conntrack_max就可以,可以將其修改為1048576第一步:nf_conntrack_max參數(shù)默認(rèn)是不開(kāi)啟的,需要先加載下面的內(nèi)核模塊,加載完成之后其值默認(rèn)為65536sudo modprobe ip_conntrack
第二步:然后在客戶端的/etc/sysctl.conf配置文件中將nf_conntrack_max設(shè)置為1048576第三步:調(diào)用sysctl命令將/etc/sysctl.conf配置文件的內(nèi)容更新到/proc/sys/net/nf_conntrack_max中備注一下
與第3次測(cè)試類似,在實(shí)際過(guò)程中也不會(huì)出現(xiàn)這個(gè)問(wèn)題,因?yàn)椴豢赡苡幸粋€(gè)客戶端程序會(huì)發(fā)起上萬(wàn)個(gè)連接,因?yàn)榇颂幬覀兪菧y(cè)試,所以程序要發(fā)起上萬(wàn)個(gè)測(cè)試,才修改這個(gè)參數(shù)修改完成之后進(jìn)行第4次測(cè)試六、第4次測(cè)試測(cè)試如下
左側(cè)運(yùn)行服務(wù)端程序reactor(111.229.177.161:8888),右側(cè)運(yùn)行兩個(gè)客戶端程序mul_port_client_epoll去連接服務(wù)器效果如下:左側(cè)服務(wù)端持續(xù)接收客戶端的連接右側(cè)兩個(gè)客戶端向服務(wù)端發(fā)起連接,但是當(dāng)兩個(gè)客戶端都連接到140999個(gè)的時(shí)候,客戶端顯示無(wú)法分配地址,從而程序退出左側(cè)服務(wù)端沒(méi)有報(bào)錯(cuò),只是沒(méi)有客戶端再連接進(jìn)來(lái)了原因分析
在第2次測(cè)試中,我們讓服務(wù)端監(jiān)聽(tīng)在5個(gè)端口上,這次錯(cuò)誤的原因可能是因?yàn)樗蟹峙涠丝诳捎玫牡刂范加猛炅?p>解決方案調(diào)整服務(wù)端reactor.c程序的LISTEN_PORT_COUNT宏,使其監(jiān)聽(tīng)在更多的端口上,這樣就可以承載更多的客戶端。例如,此處我們將LISTEN_PORT_COUNT宏調(diào)整為50#define LISTEN_PORT_COUNT 50
相應(yīng)的,客戶端mul_port_client_epoll.c中的MAX_PORT也要調(diào)整為50,因?yàn)橐B接50種服務(wù)端#define MAX_PORT 50
修改完成之后進(jìn)行下面第5次測(cè)試七、第5次測(cè)試測(cè)試如下
左側(cè)運(yùn)行服務(wù)端程序reactor(111.229.177.161:8888),右側(cè)運(yùn)行兩個(gè)客戶端程序mul_port_client_epoll去連接服務(wù)器效果如下:左側(cè)服務(wù)端持續(xù)接收客戶端的連接右側(cè)兩個(gè)客戶端向服務(wù)端發(fā)起連接,每個(gè)客戶端都連接二十多萬(wàn)的時(shí)候程序阻塞(加起來(lái)就是五十多萬(wàn))左側(cè)服務(wù)端接收到五十多萬(wàn)客戶端的時(shí)候就阻塞了原因分析
在第1次測(cè)試的時(shí)候,我們將服務(wù)端程序reactor.c中的MAX_EPOLL_EVENTS設(shè)置為1024*512=524288個(gè),此處可以看到剛好服務(wù)端在接收到五十多萬(wàn)客戶端的時(shí)候阻塞。因此分析應(yīng)該是MAX_EPOLL_EVENTS宏達(dá)到上限,也就是epoll_wait()處理的事件數(shù)組達(dá)到上限解決方案
增加reactor.c中的MAX_EPOLL_EVENTS,使其可以處理的epoll事件數(shù)組變多,例如修改為1024*1024=1048576個(gè)因?yàn)榈?次測(cè)試的時(shí)候,我們的MAX_EPOLL_EVENTS設(shè)置不能過(guò)大,如果過(guò)大程序運(yùn)行時(shí)會(huì)顯示內(nèi)存不足,現(xiàn)在想到一個(gè)辦法,那就是使用posix_memalign()函數(shù)來(lái)創(chuàng)建epoll的事件數(shù)組,posix_memalign()函數(shù)是專門用來(lái)分配大內(nèi)存的修改完成之后下面進(jìn)行第6次測(cè)試八、第6次測(cè)試下面我們不再測(cè)試了,也不再尋找客戶端或服務(wù)端的錯(cuò)誤,而是來(lái)分析一下如何使客戶端更多的去連接服務(wù)端在前面的測(cè)試中,我們的幾臺(tái)機(jī)器都是在局域網(wǎng)內(nèi)的,每連接1000個(gè)客戶端約耗時(shí)3秒。如果是在局域網(wǎng)之外,那么耗時(shí)更長(zhǎng)一種加快連接的思路
服務(wù)是調(diào)用accept()函數(shù)來(lái)接收客戶端的連接的,因此如果想要加快客戶端的連接,那么可以在accept()函數(shù)上下手提供的思路有:1.多個(gè)accept()放在一個(gè)線程中2.多個(gè)accept()分配在不同的線程3.多個(gè)accept()分配在不同的進(jìn)程(Nginx為多進(jìn)程服務(wù)器,它就是這樣做的,每個(gè)進(jìn)程都有自己獨(dú)立的資源)為什么多進(jìn)程比多線程好:1.多進(jìn)程不需要加鎖2.多進(jìn)程可以承載比多線程更多的fd,因?yàn)槊總€(gè)進(jìn)程都有自己一份獨(dú)立的資源九、總結(jié)附加用戶態(tài)協(xié)議棧設(shè)計(jì)
在服務(wù)器承載百萬(wàn)客戶端的時(shí)候,這時(shí)候會(huì)有大量的數(shù)據(jù)在進(jìn)行交互。對(duì)于默認(rèn)的應(yīng)用程序來(lái)說(shuō),其數(shù)據(jù)的傳輸都要經(jīng)過(guò)協(xié)議棧緩沖區(qū),如下圖所示:客戶端發(fā)送數(shù)據(jù)到服務(wù)端時(shí),數(shù)據(jù)先達(dá)到網(wǎng)卡,然后將數(shù)據(jù)拷貝到協(xié)議棧中,最后再把數(shù)據(jù)從協(xié)議棧中拷貝到服務(wù)端程序中服務(wù)端回送數(shù)據(jù)時(shí)是相反的順序,先把數(shù)據(jù)從服務(wù)端程序拷貝到協(xié)議棧,然后再把數(shù)據(jù)拷貝到網(wǎng)卡發(fā)送給客戶端從上圖可以了解,當(dāng)服務(wù)端與百萬(wàn)客戶端數(shù)據(jù)交互的時(shí)候會(huì)帶來(lái)下面的弊端:數(shù)據(jù)要進(jìn)行大量的拷貝,從而造成程序的性能降低數(shù)據(jù)交互速度受限與緩慢用戶態(tài)協(xié)議棧設(shè)計(jì):通過(guò)上面我們知道,數(shù)據(jù)要經(jīng)過(guò)一層協(xié)議棧,會(huì)對(duì)性能帶來(lái)影響,因此可以自己設(shè)計(jì)“用戶態(tài)協(xié)議?!保笾略砣缦拢簲?shù)據(jù)交互時(shí)不再經(jīng)過(guò)協(xié)議棧,將網(wǎng)卡與服務(wù)端的數(shù)據(jù)mmap映射到內(nèi)存中,直接從內(nèi)存中進(jìn)行交互,從而減少了中間的拷貝這就是常說(shuō)的“零拷貝”以上就是關(guān)于初始化pos機(jī)參數(shù),百萬(wàn)并發(fā)服務(wù)器系統(tǒng)參數(shù)調(diào)優(yōu)的知識(shí),后面我們會(huì)繼續(xù)為大家整理關(guān)于初始化pos機(jī)參數(shù)的知識(shí),希望能夠幫助到大家!









