본문 바로가기

문돌이 존버/프로그래밍 스터디

(프로그래밍 연습 문제 풀이) [1차] 추석 트래픽

반응형
문제 설명
추석 트래픽이번 추석에도 시스템 장애가 없는 명절을 보내고 싶은 어피치는 서버를 증설해야 할지 고민이다. 장애 대비용 서버 증설 여부를 결정하기 위해 작년 추석 기간인 9월 15일 로그 데이터를 분석한 후 초당 최대 처리량을 계산해보기로 했다. 초당 최대 처리량은 요청의 응답 완료 여부에 관계없이 임의 시간부터 1초(=1,000밀리초)간 처리하는 요청의 최대 개수를 의미한다.

입력 형식
- solution 함수에 전달되는 lines 배열은 N(1 ≦ N ≦ 2,000)개의 로그 문자열로 되어 있으며, 각 로그 문자열마다 요청에 대한 응답완료시간 S와 처리시간 T가 공백으로 구분되어 있다.
- 응답완료시간 S는 작년 추석인 2016년 9월 15일만 포함하여 고정 길이 2016-09-15 hh:mm:ss.sss 형식으로 되어 있다.
- 처리시간 T는 0.1s, 0.312s, 2s 와 같이 최대 소수점 셋째 자리까지 기록하며 뒤에는 초 단위를 의미하는 s로 끝난다.
- 예를 들어, 로그 문자열 2016-09-15 03:10:33.020 0.011s은 "2016년 9월 15일 오전 3시 10분 33.010초"부터 "2016년 9월 15일 오전 3시 10분 33.020초"까지 "0.011초" 동안 처리된 요청을 의미한다. (처리시간은 시작시간과 끝시간을 포함)
- 서버에는 타임아웃이 3초로 적용되어 있기 때문에 처리시간은 0.001 ≦ T ≦ 3.000이다.
- lines 배열은 응답완료시간 S를 기준으로 오름차순 정렬되어 있다.

출력 형식
- solution 함수에서는 로그 데이터 lines 배열에 대해 초당 최대 처리량을 리턴한다.

입출력 예제
예제1
입력: [
"2016-09-15 01:00:04.001 2.0s",
"2016-09-15 01:00:07.000 2s"]
출력: 1

예제2
입력: [
"2016-09-15 01:00:04.002 2.0s",
"2016-09-15 01:00:07.000 2s"]
출력: 2
설명: 처리시간은 시작시간과 끝시간을 포함하므로 첫 번째 로그는 01:00:02.003 ~ 01:00:04.002에서 2초 동안 처리되었으며, 두 번째 로그는 01:00:05.001 ~ 01:00:07.000에서 2초 동안 처리된다.
따라서, 첫 번째 로그가 끝나는 시점과 두 번째 로그가 시작하는 시점의 구간인 01:00:04.002 ~ 01:00:05.001 1초 동안 최대 2개가 된다.

예제3
입력: [
"2016-09-15 20:59:57.421 0.351s",
"2016-09-15 20:59:58.233 1.181s",
"2016-09-15 20:59:58.299 0.8s",
"2016-09-15 20:59:58.688 1.041s",
"2016-09-15 20:59:59.591 1.412s",
"2016-09-15 21:00:00.464 1.466s",
"2016-09-15 21:00:00.741 1.581s",
"2016-09-15 21:00:00.748 2.31s",
"2016-09-15 21:00:00.966 0.381s",
"2016-09-15 21:00:02.066 2.62s"]
출력: 7
설명: 아래 타임라인 그림에서 빨간색으로 표시된 1초 각 구간의 처리량을 구해보면 (1)은 4개, (2)는 7개, (3)는 2개임을 알 수 있다. 따라서 초당 최대 처리량은 7이 되며, 동일한 최대 처리량을 갖는 1초 구간은 여러 개 존재할 수 있으므로 이 문제에서는 구간이 아닌 개수만 출력한다.
from typing import List
# 초당 처리량 계산 함수
def calculate(log: List, start: float, end: float) -> int:
    cnt = 0
    for k in log: # 모든 기록 순환
        if k[0] < end and k[1] >= start:
            cnt += 1
    return cnt

def solution(lines) -> int:
    answer = 0
    log = [] # 시작/끝시간 기록
    for line in lines:
        date, s, t = line.split()
        s = s.split(':')
        t = t.replace('s', '')
        
        end = (int(s[0]) * 3600 + int(s[1]) * 60 + float(s[2])) * 1000 # 응답 완료 시간(s)을 msec 단위로 변환(1초=1000밀리초)
        start = end - float(t) * 1000 + 1 # 시작 시간 msec 단위
        log.append([start, end])
    
    for k in log:
        answer = max(answer, calculate(log, k[0], k[0] + 1000), calculate(log, k[1], k[1] + 1000)) # 시작/끝시간 + 1초
    return answer

문제 설명 길이가 생각보다 길지는 않은데 한 번만 읽고는 이해되지 않는다. 천천히 읽어보면 사실 간단한 문제다. 응답완료시간 S만 구분하고 처리시간 T에 따라 시작시간만 구해주면 된다. 그리고 이를 바탕으로 초당 처리량을 구하는 것이다.

일단 시간, 분, 초는 모두 밀리초(msec)로 단위로 통일했다(문제에서 주어진대로 1초=1000밀리초). 이후 lines 변수에 포함된 응답완료시간마다 시작시간과 끝시간을 구하고 초당 처리량 계산 함수에 넘겨준다. 초당 처리량은 말 그대로 1초당 처리한 양이기 때문에 함수에 넘겨주는 파라미터에 1000(1초)을 더해준다.

함수 내부를 살펴보면 모든 기록을 순환하며 넘겨진 파라미터 start 시간에서 1초 동안의 범위에 속하는지 확인하는 구조다. 최대 초당 처리량을 리턴하는 것이므로 max() 를 통해 최댓값만 찾아 나가면 된다.

728x90
반응형