select() 장단점
장점
- 다양한 운영체제에서 사용 가능 (좋은 이식성)
단점
- 서버가 많은 동시 접속자(Client) 지원 어려움 (FD_SETSIZE로 제한)
- 다중화 처리 속도 느림
- Select() 함수 리턴 후, 모든 파일 디스크립터를 대상으로 하는 반복문
- Select() 함수 호출할 때마다 파라미터로 매번 전달해야 하는 관찰대상에 대한 정보들
-Select() 함수는 운영체제 커널에 의해서 완성되는 기능이 아닌, 순수 하게 함수에 의해 완성되는 기능임
- Select() 함수의 호출을 통해서 전달된 정보는 운영체제에 등록되지 않는 것이며, 그래서 select() 함수를 호출할 때마다 매번 관련 정보를 전달해야함. 단점의 가장 큰 원인
단점의 해결책
운영체제에게 관찰대상에 대한 정보를 딱 한번만 알려주고서, 관찰대상의 범위, 또는 내용에 변경이 있을 때 변경 사항만 알려주도록 하자.
최신 Multiple IO
운영체제 레벨에서 다중화 기능 지원
- 운영체제에게 관찰대상에 대한 정보를 한번만 전달
- 변경 사항(관찰대상 범위 및 내용)이 있는 경우에만 다시 전달
예
- 리눅스 epoll
- 윈도우 IOCP( I/O Completion Port)
- FressBSD kqueue
- 솔라리스 /dev/poll
Select() 함수 사용 조건
- 서버의 접속자 수가 많지 않음
- 다양한 운영체제에서 운영이 가능 해야 함
운영체제 레벨이 아닌, 함수레벨에서 완성되는 기능이다 보니, 호환성이 상대적으로 좋다.
리눅스 대용량 처리 기술
단일 프로세스/단일 스레드 기반
- Thread 및 Process를 생성하는데 많은 비용이 소모
- 단일 기술로 대량 접속 및 데이터 처리에 적합하지 않음
epoll(Event Poll)
- 입출력 다중화 기술 기반
- None Thread/Process Create
- 빠른 입출력 처리 가능
real-time signal
- 시그널 기반
- 빠른 입출력 처리
epoll
select와 비교한 epoll의 장점
- 상태변화의 확인을 위한, 전체 파일 디스크립터를 대상으로 하는 반복문이 필요 없다.
- select 함수에 대응하는 epoll_wait 함수호출 시, 관찰대상의 정보를 매번 전달할 필요가 없다.
IO Multiplexing와 완전히 동일
- 비동기 & 블로킹 모델
- 장점 계승, 단일 프로세스/스레드로 다수 입출력 처리 가능
- 단점 해결. 이벤트 목록을 반환, FD_SET 순환 필요 없음. FD_SET 복사 필요 없음
epoll_create(2) : epoll 인스턴스 생성하고 디스크립터 반환
epoll_create1(2) : epoll_create(2)의 확장
epoll_ctl(2) : epoll 인스턴스에 아이템을 추가
epoll_wait(2) : IO 이벤트 대기
epoll_create() //epoll 파일 디스크립터 저장소 생성
#include <sys/epoll.h>
int epoll_create(int size); // size : 생성할 epoll 인스턴스
int epoll_create1(int flags); // flags : 생성할 epoll 인스턴스, EPOLL_CLOEXEC : 파일 디스크립터에 FD_CLOEXEC플래그 설정
epoll_wait // 이벤트 개수 만큼 events를 순환하면서, 이벤트를 처리한다. 파일 디스크립터의 변화를 대기
#include <sys/epoll.h>
int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
int epoll_pwait(int epfd, struct epoll_event *events, int maxevnets, int timeout, const sigset_t *sigmask);
- event poll에서 이벤트 발생을 기다린다.
- events : 발생한 이벤트 목록을 가리킨다.
- timeout : 이벤트가 발생할 때까지 기다리는 시간
- 반환 값 : 발생한 이벤트 개수
epoll_ctl //이벤트 개수 만큼 events를 순환하면서, 이벤트를 처리한다. 저장소에 파일 디스크립터 등록 및 삭제
#include <sys/epoll.h>
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
- op
-EPOLL_CTL_ADD : 소켓을 이벤트 풀에 추가하기
-EPOLL_CTL_DEL : 이벤트 풀에서 삭제하기
- event : 기다릴 이벤트를 정할 수 있다.
-EPOLLIN, EPOLLHUP, EPOLLET
epoll_event 구조체
epoll_event.events : 이벤트 종류
epoll_event.data : 이벤트 정보를 포함하는 union 구조체로 주소를 가리킬 수 있다.
1
2
3
4
5
6
7
8
9
10
11
12
13
|
typedef union epoll_data {
void *ptr;
int fd;
uint32_t u32;
uint64_t u64;
} epoll_data_t;
struct epoll_event {
uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
http://colorscripter.com/info#e" target="_blank" style="color:#4f4f4f; text-decoration:none">Colored by Color Scripter
|
http://colorscripter.com/info#e" target="_blank" style="text-decoration:none; color:white">cs |
epoll 사용 구조
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
struct epoll_event ev, *events;
events = malloc(sizeof(epoll_events) * 100);
efd = epoll_create(100); // 이벤트 풀의 크기를 100으로 한다.
epoll_ctl(efd, EPOLL_CTL_ADD, sockfd, &ev);
while(1) {
n = epoll_wait(efd, events, 100, -1); // 이벤트 풀에서 기다린다.
for(i = 0; i < n; i++) {
clientfd = accept(...);
ev.events = EPOLLIN;
ev.data.fd = clientfd;
// 연결 socket를 epoll에 넣는다.
epoll_ctl(efd, EPOLL_CTL_ADD, clientfd, &ev);
}
else { read(); write() } // 연결socket 이벤트 입출력 처리를 한다.
}
}
http://colorscripter.com/info#e" target="_blank" style="color:#4f4f4f; text-decoration:none">Colored by Color Scripter
|
http://colorscripter.com/info#e" target="_blank" style="text-decoration:none; color:white">cs |
echo_epollserv.c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
|
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <arpa/inet.h>
#include <sys/socket.h>
#include <sys/epoll.h>
#define BUF_SIZE 100
#define EPOLL_SIZE 50
void error_handling(char *buf);
int main(int argc,char *argv[])
{
int serv_sock,clnt_sock;
struct sockaddr_in serv_adr,clnt_adr;
socklen_t adr_sz;
int str_len, i;
char buf[BUF_SIZE];
struct epoll_event *ep_events;
struct epoll_event event;
int epfd, event_cnt;
if(argc!=2){
printf("Usage : %s <port>\n",argv[0]);
exit(1);
}
serv_sock=socket(PF_INET,SOCK_STREAM,0);
memset(&serv_adr,0,sizeof(serv_adr));
serv_adr.sin_family=AF_INET;
serv_adr.sin_addr.s_addr=htonl(INADDR_ANY);
serv_adr.sin_port=htons(atoi(argv[1]));
if(bind(serv_sock,(struct sockaddr*)&serv_adr,sizeof(serv_adr))==-1)
error_handling("bind() error");
if(listen(serv_sock,5)==-1)
error_handling("listen() error");
epfd=epoll_create(EPOLL_SIZE);
ep_events=malloc(sizeof(struct epoll_event)*EPOLL_SIZE);
event.events=EPOLLIN;
event.data.fd=serv_sock;
epoll_ctl(epfd,EPOLL_CTL_ADD,serv_sock,&event);
while(1)
{
event_cnt=epoll_wait(epfd,ep_events,EPOLL_SIZE,-1);
if(event_cnt==-1)
{
puts("epoll_wait() error");
break;
}
for(i=0;i<event_cnt;i++)
{
{
adr_sz=sizeof(clnt_adr);
clnt_sock=accept(serv_sock,(struct sockaddr*)&clnt_adr,&adr_sz);
event.events=EPOLLIN;
event.data.fd=clnt_sock;
epoll_ctl(epfd,EPOLL_CTL_ADD,clnt_sock,&event);
printf("connected client : %d\n",clnt_sock);
}
else
{
str_len=read(ep_events[i].data.fd,buf,BUF_SIZE);
if(str_len==0) //close request!
{
epoll_ctl(
epfd,EPOLL_CTL_DEL,ep_events[i].data.fd,NULL);
close(ep_events[i].data.fd);
}
else
{
write(ep_events[i].data.fd,buf,str_len); //echo!
}
}
}
}
close(serv_sock);
close(epfd);
return 0;
}
void error_handling(char *buf)
{
fputs(buf,stderr);
fputc('\n',stderr);
exit(1);
}
http://colorscripter.com/info#e" target="_blank" style="color:#4f4f4f; text-decoration:none">Colored by Color Scripter
|
http://colorscripter.com/info#e" target="_blank" style="text-decoration:none; color:white">cs |
레벨 트리거(Level Trigger), 엣지 트리거(Edge Trigger)
Level-Triggered : 특정 조건이 유지되면 계속 감지
Edge-Triggered : 조건이 변할 때만 감지. ET
Epoll은 LT를 기본으로 한다.
- LT일 경우 IO Multiplexing과 동일하게 작동한다.
엣지 트리거 기반의 서버 구현을 위해 필요한 것
1. 넌-블로킹 IO로 소켓 속성 변경
int flag-fcntl(fd, F_GETFL,0);
fcntl(fd,F_SETFL,floag|O_NONBLOCK);
fcntl 함수호출을 통해서 소켓의 기본 설정정보를 얻은 다음, 거기에 O_NONBLOCK 속성을 더해서 소켓 특성을 재설정
엣지 트리거는 데이터 수신 시 딱 한번만 이벤트가 발생하기 때문에 이벤트가 발생했을 때 충분한 양의 버퍼를 마련한 다음에 모든 데이터를 다 읽어 들여야 한다. 즉, 데이터의 분량에 따라서 IO로 인한 DELAY가 생길 수 있다. 그래서 엣지 트리거에서는 넌-블로킹 IO를 이용한다. 입력 함수의 호출과 다른 작업을 병행할 수 있기 때문이ㅏㄷ.
2. 입력버퍼의 상태 확인
int errno;
넌-블로킹 IO 기반으로 데이터 입력 시 데이터 수신이 완료되었는지 별도로 확인해야 한다.
<error.h>를 포함하고 변수 errno을 참조. errno에 EAGAIN이 저장되면 버퍼가 빈 상태
epoll 이벤트 트리거: ET
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
struct epoll_event ev, *events;
events = malloc(sizeof(epoll_events) * 100);
efd = epoll_create(100); // 이벤트 풀의 크기를 100으로 한다.
epoll_ctl(efd, EPOLL_CTL_ADD, sockfd, &ev);
while(1) {
n = epoll_wait(efd, events, 100, -1); // 이벤트 풀에서 기다린다.
for(i = 0; i < n; i++) {
clientfd = accept(...);
ev.data.fd = clientfd;
// 연결 socket를 epoll에 넣는다.
epoll_ctl(efd, EPOLL_CTL_ADD, clientfd, &ev);
}
else { read(); write() } // 연결socket 이벤트 입출력 처리를 한다.
}
}
http://colorscripter.com/info#e" target="_blank" style="color:#4f4f4f; text-decoration:none">Colored by Color Scripter
|
http://colorscripter.com/info#e" target="_blank" style="text-decoration:none; color:white">cs |
멀티캐스트(Multicast)
멀티캐스트의 데이터 전송방식과 트래픽 이점
- 멀티캐스트 서버는 특정 멀티캐스트 그룹을 대상으로 데이터를 딱 한번 전송한다.
- 딱 한번 전송하더라도 그룹에 속하는 클라이언트는 모두 데이터를 수신한다.
- 멀티캐스트 그룹의 수는 IP주소 범위 내에서 얼마든지 추가가 가능하다.
- 특정 멀티캐스트 그룹으로 전송되는 데이터를 수신하려면 해당 그룹에게 가입하면 된다.
멀티캐스트 그룹을 대상으로 하는 데이터의 수신을 위해서는 가입의 절차를 걸쳐야 한다.
모든 호스트에 데이터 전송을 해야 할 때, TCP 또는 UDP보다 발생하는 트래픽의 양이 적다.
멀티 캐스트는 연결의 개념이 존재하지 않는다. 따라서 UDP 소켓을 기반으로 전송된다.
라우팅과 TTL
TTL (Time to Live)
- 패킷을 얼마나 멀리 보낼 것인가를 결정하는 요소
- TTL은 정수로 표현되며, 라우터를 하나 거칠 때마다 1씩 감소
- TTL이 0이 되면, 해당 패킷은 소멸된다.
그룹으로의 가입방법
멀티캐스트 그룹의 가입은 소켓의 옵션정보 변경을 통해서 이뤄진다. 그룹의 가입에 사용되는 프로토콜 레벨은 IPPROTO_IP이고, 프로토콜의 이름은 IP_ADD_MEMBERSHIP이다. 그리고 그룹의 정보는 ip_mreq 구조체 변수를 이용해서 표현한다.
struct ip_mreq
{
struct in_addr imr_multiaddr;
struct in_addr imr_interface;
}
멀티캐스트 Sender
news_sender.c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
|
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <arpa/inet.h>
#include <sys/socket.h>
#define TTL 64
#define BUF_SIZE 30
void error_handling(char *message);
int main(int argc,char *argv[])
{
int send_sock;
struct sockaddr_in mul_adr;
int time_live=TTL;
FILE *fp;
char buf[BUF_SIZE];
if(argc!=3){
printf("Usage: %s <GroupIP> <PORT>\n",argv[0]);
exit(1);
}
send_sock=socket(PF_INET,SOCK_DGRAM,0);
memset(&mul_adr,0,sizeof(mul_adr));
mul_adr.sin_family=AF_INET;
mul_adr.sin_addr.s_addr=inet_addr(argv[1]); //Multicast IP
mul_adr.sin_port=htons(atoi(argv[2])); //Multicast port
setsockopt(send_sock,IPPROTO_IP,
IP_MULTICAST_TTL,(void*)&time_live,sizeof(time_live));
error_handling("fopen error");
while(!feof(fp)) //Broadcasting
{
fgets(buf,BUF_SIZE,fp);
sendto(send_sock,buf,strlen(buf),
0,(struct sockaddr*)&mul_adr,sizeof(mul_adr));
sleep(2);
}
close(fp);
close(send_sock);
return 0;
}
void error_handling(char *message)
{
fputs(message,stderr);
fputc('\n',stderr);
exit(1);
}
http://colorscripter.com/info#e" target="_blank" style="color:#4f4f4f; text-decoration:none">Colored by Color Scripter
|
http://colorscripter.com/info#e" target="_blank" style="text-decoration:none; color:white">cs |
sender에서는 특정 멀티캐스트 그룹을 향해 파일에 저장된 데이터를 전송하고 있다.
이 데이터는 라이오 방송과 마찬가지로 receiver가 그룹에 가입을 하는 순간 부터 수신을 시작한다.
news_receiver.c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
|
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <arpa/inet.h>
#include <sys/socket.h>
#define BUF_SIZE 30
void error_handling(char *message);
int main(int argc,char *argv[])
{
int recv_sock;
int str_len;
char buf[BUF_SIZE];
struct sockaddr_in adr;
struct ip_mreq join_adr;
if(argc!=3){
printf("Usage : %s <GroupIP> <PORT> \n",argv[0]);
exit(1);
}
recv_sock=socket(PF_INET,SOCK_DGRAM,0);
memset(&adr,0,sizeof(adr));
adr.sin_family=AF_INET;
adr.sin_addr.s_addr=htonl(INADDR_ANY);
adr.sin_port=htons(atoi(argv[2]));
if(bind(recv_sock,(struct sockaddr*)&adr,sizeof(adr))==-1)
error_handling("bind() error");
join_adr.imr_multiaddr.s_addr=inet_addr(argv[1]);
join_adr.imr_interface.s_addr=htonl(INADDR_ANY);
setsockopt(recv_sock, IPPROTO_IP,
IP_ADD_MEMBERSHIP,(void*)&join_adr,sizeof(join_adr));
while(1)
{
str_len=recvfrom(recv_sock,buf,BUF_SIZE-1,0,NULL,0);
if(str_len<0)
break;
buf[str_len]=0;
fputs(buf,stdout);
}
close(recv_sock);
return 0;
}
void error_handling(char *message)
{
fputs(message,stderr);
fputc('\n',stderr);
exit(1);
}
http://colorscripter.com/info#e" target="_blank" style="color:#4f4f4f; text-decoration:none">Colored by Color Scripter
|
http://colorscripter.com/info#e" target="_blank" style="text-decoration:none; color:white">cs |
receiver가 멀티캐스트 그룹에 가입을 하는 순간부터 데이터를 수신하게 된다. 따라서 가입 이전에 sender가 전송한 데이터는 수신할 수 없다.
브로드캐스트의 이해와 구현의 방법
브로드캐스트
- 동일한 네트워크 내에 존재하는 호스트에게 데이터를 전송하는 방법
- 데이터 전송의 대상이 호스트가 아닌 네트워크
- 멀티캐스트와 마찬가지로 UDP 소켓을 기반으로 한다.
- IP에서 네트워크 주소를 제외한 호스트 주소를 모두 I로 해서 전송하면, 해당 네트워크로 데이터가 전송된다 - Directed 브로드캐스트
- 255.255.255.255로 데이터를 전송하면, 전송한 호스트가 속한 네트워크로 데이터가 전송된다 -Local 브로드캐스트
int send_sock;
int bcast=1; //SO_BROADCAST의 옵션정보를 1로 변경하기 위한 벼수 초기화
. . . . . . . . . .
send_sock=socket(PF_INET, SOCK_DGRAM,0);
setsockopt(send_sock,SOL_SOCKET,SO_BROADCAST,(void*)&bcast,sizeof(bcast));
. . . . . . . . . . .
'딥러닝 기반 영상인식 개발 전문가 과정 > 리눅스' 카테고리의 다른 글
6월18일 멀티쓰레드 기반의 다중접속 서버의 구현 (0) | 2019.06.18 |
---|---|
6월17일 멀티캐스트, 브로드캐스트, 쓰레드, HTTP (0) | 2019.06.17 |
6월14일 채팅실습, fileno, fdopen, 입력 스트림과 출력 스트림의 분리 (0) | 2019.06.14 |
6월13일 채팅, 실습 (0) | 2019.06.13 |
6월13일 실습3, 표준 입출력 함수, send,recv (0) | 2019.06.13 |