본문 바로가기
스터디-공부/시스템 디자인

4장 처리율 제한 장치의 설계 (2) - 알고리즘 정리

by jonghoonpark 2023. 5. 18.

처리율 제한 알고리즘

널리 알려진 인기 알고리즘은 다음과 같은 것들이 있다.
- 토큰 버킷 (token bucket)
- 누출 버킷 (leaky bucket)
- 고정 윈도 카운터 (fixed window counter)
- 이동 윈도 로그 (sliding window log)
- 이동 윈도 카운터 (sliding window counter)

 

토큰 버킷 알고리즘

보편적으로 사용되는 알고리즘
아마존과 스트라이프가 API 요청을 통제(throttle)하기 위해 사용

 

동작 원리

토큰 버킷은 지정된 용량을 갖는 컨테이너이다.
이 버킷에는 사전 설정된 양의 토큰이 주기적으로 채워진다.
토큰이 꽉 찬 버킷에는 더 이상의 토큰은 추가되지 않는다.
버킷이 가득 차면 추가로 공급된 토큰은 버려진다.

각 요청은 처리될 때마다 하나의 토큰을 사용한다.

요청이 도착하면 버킷에 충분한 토큰이 있는지 검사하게 된다.
충분한 토큰이 있는 경우, 버킷에서 토큰 하나를 꺼낸 후 요청을 시스템에 전달한다.
충분한 토큰이 없는 경우, 해당 요청은 버려진다(dropped)

노큰 버킷 알고리즘은 2개 인자(parameter)를 받는다
버킷 크기: 버킷에 담을 수 있는 토큰의 최대 개수
토큰 공급률(refill rate): 초당 몇 개의 토큰이 버킷에 공급되는가

 

통상적으로, API 엔드포인트(endpoint)마다 별도의 버킷을 둔다.
IP 주소별로 처리율 제한을 적용해야 한다면 IP 주소마다 버킷을 하나씩 할당해야 한다.
시스템의 처리율을 초당 10,000개 요청으로 제한하고 싶다면, 모든 요청이 하나의 버킷을 공유하도록 해야 할 것이다.

 

장점
- 구현이 쉽다.
- 메모리 사용 측면에서도 효율적이다
- 짧은 시간에 집중되는 트래픽(burst of traffic)도 처리 가능하다. 버킷에 남은 토큰이 있기만 하면 요청은 시스템에 전달 될 것이다.

 

단점
- 인자 값을 튜닝하는 것이 까다로울 수 있다.

토큰 버킷 알고리즘에서 버킷을 다시 채워주는 과정이 있는데 주기적으로 모든 유저의 버킷을 다 확인해서 다시 채워주는건 코스트가 크지 않을까?
버킷이 꽉차있지 않은 사람들만 따로 목록으로 관리할까?

https://www.linkedin.com/pulse/api-rate-limiting-using-token-bucket-algorithm-siddharth-patnaik/
consume을 시도할 때 refill을 함. 이 때 마지막 충전시간을 기준으로 현재 기준의 토큰 양을 재 계산함. ₩

 

누출 버킷 알고리즘

누출 버킷(leaky bucket) 알고리즘은 토큰 버킷 알고리즘과 비슷하지만 요청 처리율이 고정되어 있다는 점이 다르다.

누출 버킷 알고리즘은 보통 FIFO(First In First Out) 큐로 구현한다.

Shopify 가 이 알고리즘을 사용

 

동작원리

요청이 도착하면 큐가 가득 차 있는지 본다. 빈자리가 있는 경우에는 큐에 요청을 추가한다.
큐가 가득 차 있는 경우에는 새 요청은 버린다.
지정된 시간마다 큐에서 요청을 꺼내어 처리한다.

누출 버킷 알고리즘 에서 큐는 사용자마다 생성해주는 것인가?

> 누출 버킷 알고리즘에서 큐는 단일 시스템 또는 서비스 수준에서 사용되는 것이 일반적입니다. 각 사용자에 대한 개별 큐를 생성하는 것은 일반적으로 구현에 따라 다를 수 있지만, 일반적인 누출 버킷 알고리즘에서는 모든 사용자에 대해 개별 큐를 생성하지 않습니다. (GPT 답변)

누출 버킷 알고리즘은 2개 인자(parameter)를 받는다
버킷 크기: 큐 사이즈와 같은 값이다.
처리율(outflow rate): 지정된 시간당 몇 개의 항목을 처리할 지 지정하는 값이다. 보통 초 단위로 표현된다.

 

장점
- 큐의 크기가 제한되어 있어 메모리 사용량 측면에서 효율적이다.
- 고정된 처리율을 갖고 있기 때문에 안정적 출력(stable outflow rate)이 필요한 경우에 적합하다.

 

단점
- 단시간에 많은 트래픽이 몰리는 경우 큐에는 오래된 요청들이 쌓이게 되고, 그 요청들을 제때 처리 못하면 최신 요청들은 버려지게 된다.
- 인자 값을 튜닝하는 것이 까다로울 수 있다.

 

고정 윈도 카운터 알고리즘

고정 윈도 카운터(fixed window counter) 알고리즘은 다음과 같이 동작한다.
- 타임라인(timeline)을 고정된 간격의 윈도(window)로 나누고, 각 윈도마다 카운터(counter)를 붙인다.
- 요청이 접수될 때마다 이 카운터의 값은 1씩 증가한다.
- 이 카운터의 값이 사전에 설정된 임계치(threshold)에 도달하면 새로운 요청은 새 윈도가 열릴 때까지 버려진다.

장점
- 메모리 효율이 좋다.
- 이해하기 쉽다.
- 윈도가 닫히는 시점에 카운터를 초기화하는 방식은 특정한 트래픽 패턴을 처리하기에 적합하다.

 

단점

- 윈도 경계 부근에 순간적으로 많은 트래픽이 집중될 경우 윈도에 할당된 양보다 더 많은 요청이 처리될 수 있다 (최대 기대치의 2배 : 경계를 기준으로 이전에 할당된 양 + 이후에 할당된 양)

 

이동 윈도 로깅 알고리즘

고정 윈도 카운터 알고리즘의 단점을 개선

 

동작 과정
- 요청의 타임스탬프(timestamp)를 추적한다. 타임스탬프 데이터는 보통 레디스(Redis)의 정렬 집합(sorted set) 같은 캐시에 보관한다.
- 새 요청이 오면 만료된 타임스탬프는 제거한다. 만료된 타임스탬프는 그 값이 현재 윈도의 시작 시점보다 오래된 타임스탬프를 말한다.
- 새 요청의 타임스탬프를 로그(log)에 추가한다.
- 로그의 크기가 허용치보다 같거나 작으면 요청을 시스템에 전달한다. 그렇지 않은 경우에는 처리를 거부한다.

왜 거부된 요청의 타임스탬프까지 보관하는가?

> 거부된 요청의 타임스탬프를 보관함으로써, 보안 팀이나 시스템 관리자는 거부된 요청의 패턴이나 악의적인 활동을 탐지할 수 있습니다. 이 정보는 시스템에 대한 잠재적인 위협을 식별하고 보안 대책을 수립하는 데 도움이 됩니다. (GPT 답변)

> 로그가 계속 쌓이는 것을 악용할수도 있지 않을까?

동작 예시

로그 허용 사이즈를 2로 가정한다.

① 1:00:01 에 도착한 요청은 로그가 비워있기 때문에 허용된다.
② 1:00:30 에 도착한 요청은 [0:59:30, 1:00:30) 범위 안에 있는 요청이 2개(로그 허용 사이즈) 보다 적기 때문에 허용된다. 
③ 1:00:50 에 도착한 요청은 [0:59:50, 1:00:50) 범위 안에 있는 요청이 2개보다 많으므로 거부한다. (로그에는 남긴다.)
④ 1:01:40 에 도착한 요청은 [1:00:40, 1:01:40) 범위 안에 있는 요청이 2개보다 적으므로 허용한다. (만료된 요청의 타임스탬프(1:00:40 이전의 타임스탬프)로그는 지운다.)

 

장점
- 이 알고리즘이 구현하는 처리율 제한 메커니즘은 아주 정교하다. 어느 순간의 윈도를 보더라도, 허용되는 요청의 개수는 시스템의 처리율 한도를 넘지 않는다.

단점
- 이 알고리즘은 다량의 메모리를 사용하는데, 거부된 요청의 타임스탬프도 보관하기 때문이다. 

 

이동 윈도 카운터 알고리즘

이동 윈도 카운터(sliding window counter) 알고리즘은 고정 윈도 카운터 알고리즘과 이동 윈도 로깅 알고리즘을 결합한 것이다.

cloudflare가 이 알고리즘을 사용한다고 한다.
(출처 : https://medium.com/@avocadi/rate-limiter-sliding-window-counter-7ec08dbe21d6)

이동 윈도우 인 이유는 말그대로 윈도가 이동해서 이다.

 

예시를 통한 동작 과정 설명

LIMIT은 10으로 잡는다.

현재 윈도 기준의 처리수를 계산하는 방법은 다음과 같다.
현재 1분간의 요청 수 + 직전 1분간의 요청 수 x 이동 윈도와 직전 1분이 겹치는 비율
위 이미지를 기준으로는 5 + 8 * 0.47 = 8.76 이다.

이동 윈도우 내의 처리수가 LIMIT인 10보다 적을경우 허용된다. 

 

장점
- 이전 시간대의 평균 처리율에 따라 현재 윈도의 상태를 계산하므로 짧은 시간에 몰리는 트래픽에도 잘 대응한다.
- 메모리 효율이 좋다.

 

단점
- 직전 시간대에 도착한 요청이 균등하게 분포되어 있다고 가정한 상태에서 추정치를 계산하기 때문에 다소 느슨할 수 있다.

댓글