Study/가상 면접 사례로 배우는 대규모 시스템 설계 기초

가상 면접 사례로 배우는 대규모 시스템 설계 기초 - 1. 사용자 수에 따른 규모 확장성

긍정왕웹서퍼 2023. 8. 19. 00:51
728x90

단일 서버

  1. 사용자는 도메인으로 웹사이트에 접속한다. 이 때 DNS에 질의 한다.
  2. DNS 조회 결과로 IP 주소가 반환된다.
  3. 해당 IP주소로 HTTP 요청이 전달된다.
  4. 요청을 받은 웹 서버에서 HTML, JSON형태의 응답등을 반환한다.

 

 

 

데이터베이스

사용자가 늘면 서버를 여러개 두어야 한다. 하나는 요청 트래픽 처리용, 하나는 데이터베이스용이다. 각각을 분리하면 독립적으로 확장해 나갈 수 있다. 데이터베이스는 용도에 따라 선택해야 한다. 다음과 같은 경우 NoSQL 을 고려하자

  • 아주 낮은 응답 지연시간(latency) 요구
  • 데이터가 비정형(unstructured) 인 경우
  • 데이터(JSON, YAML, XML등)를 직렬화(serialize) 하거나 역직렬화(deserialize) 할 수 있기만 하면 됨
  • 아주 많은 양의 데이터를 저장할 필요가 있음

 

 

 

수직적 규모 확장 (scale up) vs 수평적 규모 확장 (scale out)

  • 수직적 규모 확장
  • 스케일 업이라고도 하는 수직적 규모 확장(vertical scaling) 프로세스는 서버에 고사양 자원(고성능 CPU, RAM 추가 등)을 추가하는 행위를 의미하며, 서버로 유입되는 트래픽의 양이 적을 때는 스케일업이 좋은 선택이며 단순함이 큰 장점이다. 하지만 단점으로 확장의 한계가 있고, 장애에 대한 자동복구(failover) 방안이나 다중화(redundancy) 방안을 제시하지 않으므로 결국 장애가 발생하면 중단된다.
  • 수평적 규모 확장
  • 스케일 아웃이라고도 하는 수평적 규모 확장 프로세스는 더 많은 서버를 추가하여 성능을 개선하는 행위를 의미한다. 대규모 애플리케이션을 지원하는 데 적절하다.

 

 

 

로드밸런서

부하 분산 집합(load balancing set)에 속한 웹 서버들에게 트래픽이 고르게 분산하는 역할이다.

로드밸런서로 부하 분산

먼저 사용자는 DNS에서 로드밸런서의 공개 IP주소(public IP) 로 접속한다. 그리고 내부 서버 간 통신에는 같은 네트워크에 속한 서버 사이의 통신에만 쓰이는 주소인 사설 IP주소(private IP)를 이용한다. 로드밸런서는 장애를 자동복구하는 (failover) 전략을 사용할 수 있으며 웹 계층의 가용성(availability)이 향상된다.

  • 서버 1이 다운되는 경우 트래픽은 서버2로 전송되며 전체 서버가 다운되는 경우를 방지하고 부하를 나누기 위해 새로운 서버를 추가할 수 있다.
  • 트래픽이 급격히 증가하면 서버를 더 추가해 로드밸런서가 부하를 분산한다.

이렇게 서버의 부하는 분산되었는데, 문제는 데이터베이스가 한대만 있을 경우이다. 이럴 때 데이터베이스의 다중화를 사용할 수 있다.

 

 

 

데이터베이스 다중화

서버 사이에 데이터베이스를 주(Master) - 부(slave) 로 나누어 데이터 원본은 마스터 서버에 보관하며 쓰기 연산은 마스터에서만 가능하고, 사본은 슬레이브 서버에 저장하며 읽기 연산만을 지원하여 마스터 데이터베이스가 슬레이브 데이터베이스에게 사본을 전달한다. 보통 애플리케이션은 쓰기 연산보다 읽기 연산의 비중이 높다.

데이터 베이스 다중화

다중화로 얻는 이득은

  • 더 다은 성능 : 주 - 부 다중화 모델에서 데이터의 변경은 주 데이터베이스에서만 처리되고, 읽기 연산은 부 데이터베이스로 전달하여 분산하면서 병렬로 처리할 수 있는 query의 수가 늘어단다.
  • 안정성 (reliability) : 데이터베이스 서버의 일부 장애가 발생해도 데이터는 보존할 수 있다.
  • 가용성 (availability) : 데이터를 여러 지역에 복제해 둠으로써 데이터베이스 서버에 장애가 발생해도 다른 서버에 데이터를 가져와 계속 서비스할 수 있다.

만약 데이터베이스 서버 하나가 다운된다면 무슨 일이 벌어질까?

  • 부 서버가 한 대 뿐인데 다운된 경우, 읽기 연산은 마스터 서버가 처리할 것이며, 즉시 새로운 슬레이브 서버가 장애 서버를 대체할 것이다. 슬레이브 서버가 여러 대인 경우 읽기 연산은 나머지 슬레이브 서버들로 분산되며 대체한다.
  • 주 데이터베이스가 다운됐을 때, 한 대의 슬레이브 데이터베이스만 있는 경우 해당 슬레이브 서버가 마스터 서버가 되며 모든 데이터베이스 연산은 일시적으로 마스터 서버에서 수행되며, 새로운 슬레이브 서버가 추가될 것 입니다. 하지만 프로덕션에서는 더 복잡한게, 마스터 - 슬레이브 서버간 데이터가 최신 상태가 아닐 수 있어서 복구 스크립트를 통해 추가해야합니다.

로드밸런서, 서버 다중화, 데이터베이스 다중화가 적용된 모습

해당 설계안은 다음과 같이 동작합니다.

  1. 사용자는 DNS에서 로드밸런서의 공개 IP주소를 받습니다.
  2. 해당 IP주소로 로드밸런서에 접속합니다.
  3. 로드밸런서는 부하 분산으로 적절히 서버에 전달합니다.
  4. 웹 서버는 사용자의 데이터를 부 데이터베이스에서 읽습니다.
  5. 웹 서버는 데이터 변경 연산을 주 데이터베이스에 전달합니다.

이제 적절히 트래픽관리가 가능한 설계가 되었으나, 응답시간(latency)을 개선해야 합니다. 응답 시간은 캐시(cache)를 붙이고 정적 컨텐츠 전송 네트워크(CDN)로 옮기면 개선할 수 있습니다.

 

 

 

 

캐시 cache

값비싼 연산 결과 나 자주 참조되는 데이터를 메모리에 두고 동일한 요청을 보다 빨리 처리할 수 있도록 하는 저장소입니다.

캐시 계층(cache tier) 는 데이터가 잠시 보관되는 곳으로 데이터베이스보다 훨씬 빠르며, 별도의 캐시 계층을 두면 성능이 개선될 뿐 아니라 데이터베이스의 부하를 줄일 수 있고 캐시 계층의 독립적으로 확장시키는 것도 가능합니다.

읽기 주도형 캐시 전략(read-through caching strategy)이라고 부르며, 이 외에도 캐시 종류, 크기, 패턴에 맞는 다양한 캐시 전략을 선택할 수 있습니다.

캐시 사용 시 유의할 점

  • 캐시는 데이터 갱신은 적지만 참조가 빈번하게 일어난다면 고려해볼 수 있다.
  • 캐시는 데이터를 휘발성 메모리에 두므로 영속적으로 보관할 데이터를 보관하는 것은 바람직하지 않습니다.
  • 캐시에 보관된 데이터의 만료(expire) 정책을 마련해 두어야 한다. 적절한 만료 기한을 두고 데이터를 유지시켜야 합니다.
  • 일관성(consistency)의 유지는 어떻게 할지 고민해야 합니다. 데이터베이스의 원본과 캐시내 데이터 사본이 같은지 여부를 확인해야 하며, 데이터베이스의 연산과 캐시를 갱신하는 연산이 단일 트랜잭션으로 처리되지 않는 경우 일광성이 깨질 수 있습니다.
  • 장애 대처 방안에 대해 고민해야 합니다 캐시 서버를 한 대만 두는 경우 해당 서버는 단일 장애 지점(Single point of Failure, SPOF)이 될 가능성이 있습니다. ** 단일 장애지점은 특정 지점에서 장애가 전체 시스템의 동작을 중단하는 경우를 의미합니다 **
  • 캐시 메모리의 할당을 적절히 조절해야 합니다. 너무 적다면 데이터가 캐시에서 밀려나서 성능이 떨어질 수 있으며, 이를 방지하기 위해 과할당(over provision) 하는 경우도 있습니다.
  • 데이터 방출(eviction) 정책은 캐시가 꽉 찼을 때 추가로 데이터가 캐시로 들어오는 경우 기존 데이터를 내보내야 할 때 정책을 의미하며, 보통 LRU(Least Recently Used, 마지막 사용 시점이 오래된 데이터를 내보내는 정책)를 많이 사용하며 다른 정책으로는 LFU(Least Frequently Used, 사용 빈도가 낮은 데이터를 내보내는 정책)이나, FIFO(First In First Out, 가장 먼저 캐시에 들어온 데이터 순으로 내보내는 정책)도 있습니다.

콘텐츠 전송 네트워크(CDN)

정적 컨텐츠를 전송하는 데 쓰이며, 지리적으로 분산된 서버의 네트워크입니다. 이미지, 비디오, CSS, JS 파일등을 캐싱할 수 있습니다. 간략하게 request path, query string, cookie, header등의 정보에 기반하여 HTML 페이지를 캐시합니다.

사용자가 페이지를 요청하면 가장 가까운 CDN 서버가 정적 컨텐츠를 전달하게 되며 가까울수록 빠르고 멀수록 느려집니다.

  1. 사용자A가 이미지 URL을 이용해 image.png 에 접근할 경우 URL의 도메인은 CDN 서비스에서 제공한 것입니다.
  2. CDN 서버에 해당 이미지가 없는 경우 서버는 원본 서버에 요청해 파일을 가져오게 됩니다.
  3. 원본 서버가 파일을 CDN에 반환하고, HTTP 헤더에 해당 파일이 얼마나 오래 캐시될 수 있는지 설명하는 TTL(Time-To-Live)값이 들어 있습니다.
  4. CDN 서버는 파일을 캐시하고 사용자에게 반환하며 이미지는 TTL에 명시된 시간까지 캐시됩니다.
  5. 사용자 B가 같은 이미지에 대해 요청하면 만료되지 않은 경우 캐시를 통해 처리합니다.

 

 

 

CDN 사용 시 고려사항

  • 비용 : CDN은 보통 제3 사업자에 의해 운영되며 CDN에서 통신되는 데이터의 양에 따라 요금을 책정합니다. 자주 사용되지 않는 콘텐츠를 캐싱하는 것은 이득이 크지 않으므로 적절한 사용 콘텐츠만 캐싱합니다.
  • 만료 시한: 시의성이 중요한(time-sensitive) 컨텐츠의 경우 만료 시점을 잘 정해야 합니다.
  • CDN 장애 대처 방안: CDN 서버에 문제가 생겼을 경우 대처 방안을 마련해야 합니다. 예로 CDN 서버가 응답하지 않는 경우 원본 서버로부터 컨텐츠를 가져오도록 하는 등의 방안이 필요합니다.
  • 컨텐츠 무효화(invalidation) 방법: 아직 만료되지 않았어도 CDN에서 제거할 수 있습니다.
    • CDN 서비스의 API 사용
    • 다른 버전을 서비스하도록 오브젝트 비저닝(object versioning) 이용
  • 캐시와 CDN이 추가된 설계

정적 컨텐츠는 더 이상 웹서버를 통해 제공하지 않고 CDN을 통해 성능을 높이며, 캐시가 데이터 베이스의 부하를 줄여줄 수 있습니다.

 

 

 

 

무상태 (Stateless) 웹 계층

웹 계층을 수평적으로 확장하기 위해선 상태 정보를 데이터베이스에서 필요할 때 가져오는 것이 바람직한 전략입니다. 이런 구성 상태를 무상태 웹 계층이라고 합니다.

 

상태 정보 의존적인 아키텍처

상태 정보를 보관하는 서버는 클라이언트 정보, 즉 상태를 유지하여 요청들 사이에 공유되도록 합니다. 무상태 서버에는 이런 장치가 없습니다.

예시 그림을 보면 사용자A의 요청은 서버 1에 저장되며 사용자A를 인증하기 위해서 요청을 반드시 서버 1로만 전송해야 합니다. 다른 서버로 요청될 경우 사용자A의 정보가 없으므로 인증에 실패합니다. 문제는 같은 클라이언트로부터의 요청은 항상 같은 서버로 전달되야 한다는 것 입니다. 대부분 로드밸런서가 이 기능을 위해 고정 세션(sticky session) 이라는 기능을 통해 지원하지만, 로드밸런서에 부담을 주며 서버를 추가하거나 제거하기 까다로워 지고 서버의 장애처리 시 복잡도가 증가합니다.

 

무상태 아키텍처

웹 서버는 상태 정보를 데이터베이스에서 가져오며 물리적으로 웹서버로 부터 분리되어 있어 단순하고 안정적으고 규모 확장이 쉽습니다.

위와 같이 세션 데이터를 웹 계층에서 분리하고 지속성 데이터 보관소에 저장하도록 설계했으며, 이 저장소는 캐시 시스템이거나 RDB, NoSQL등 다양한 형태일 수 있습니다.

 

 

 

 

데이터 센터

위 그림은 두 개의 데이터 센터를 이용하는 사례로, 장애가 없는 상황에서 사용자는 가장 가까운 데이터 센터로 안내되는데, 통상 이 절차를 지리적 라우팅(geoDEN-routing, geo-routing)이라고 부르며, 도메인을 어떤 IP주소로 변활할지 결정할 수 있는 서비스입니다.

만약 둘중 하나에 센터에 장애가 발생하면 모든 트래픽은 나머지 데이터 센터로 전송됩니다.

이와 같은 다중 데이터센터 아키텍처를 위해서는 몇가지 난제를 해결해야 합니다.

  • 트래픽 우회 : 올바른 데이터 센터로 트래픽을 보내는 효과적인 방법을 찾아야 합니다. geoDNS는 사용자에게서 가장 가까운 데이터 센터로 트래픽을 보낼 수 있도록 해 줍니다.
  • 데이터 동기화(synchronization) : 데이터 센터마다 별도의 데이터베이스를 사용하고 있는 상황이라면, 장애가 자동으로 복구되어(failover) 트래픽이 다른 데이터베이스로 우회된다 해도, 데이터가 없을 수 있습니다. 이를 막기 위해 보편적으로 여러 데이터센터에 데이터를 다중화해두는 것 입니다.
  • 테스트와 배포(deployment) : 여러 데이터 센터를 사용하도록 시스템이 구성됐다면 여러 위치에서 요청을 보내 테스트해보는 것이 중요합니다. 물론 자동화된 배포 도구는 동일한 서비스가 설치되도록 하는 중요한 역할입니다.

 

 

 

 

메시지 큐(message queue)

시스템을 더 확장하기 위해서는 시스템의 컴포넌트를 분리하여 각 독립적으로 확장될 수 있도록 해야하며, 메시지 큐는 분산 시스템들이 해당 문제를 풀기 위해 채용하는 핵심적 전략입니다.

메시지의 무손실(durability, 메시지 큐에 보관된 데이터는 소비자가 꺼낼 때까지 보관된다는 특성)을 보장하는, 비동기 통신(asynchronous communication)을 지원하는 컴포넌트입니다. 메시지의 버퍼 역할을 하며, 비동기적으로 전송합니다.

발행자(producer/publisher)는 메시지를 만들어 메시지 큐에 발행(publish)하며, 큐에는 소비자(consumer/subscriber)라 불리는 서비스 혹은 서버가 연결되어 메시지를 받아 처리합니다.

메시지 큐를 이용하면 서비스 간 결합이 느슨해져서 규모 확장성이 보장되야 하는 안정적 애플리케이션을 구성하기 좋고, 생산자는 소비자 프로세스가 다운되어도 메시지를 발행할 수 있으며, 소비자는 생산자 서비스가 가용 상태가 아니어도 메시지 수신이 가능합니다.

 

 

 

 

로그, 메트릭, 자동화

  • 로그 : 에러 로그를 모니터링하는 것은 중요하며, 시스템의 오류와 문제들을 보다 쉽게 찾아낼 수 있고, 에러 로그는 서버 단위로 모니터링 할 수도 있지만, 로그를 단일 서비스로 모아주는 도구를 활용하면 편리하게 관리할 수 있습니다.
  • 메트릭 : 메트릭을 잘 수집하면 사업 현황에 관한 유용한 정보를 얻을 수도 있고, 시스템의 현재 상태를 손쉽게 파악할 수도 있다. 메트릭 가운데 특히 유용한 것을 몇 가지 살펴보면 다음과 같다.
    • 호스트 단위 메트릭 : CPU, 메모리, 디스크IO에 관한 메트릭
    • 종합(aggregated) 메트릭 : 데이터베이스 계층의 성능, 캐시 계층의 성능같은 것
    • 핵심 비즈니스 메트릭 : 일별 능동 사용자(daily active user), 수익(revenue), 재방문(retention)
  • 자동화 : 시스템이 크고 복잡해지면 생산성을 높이기 위해 자동화 도구를 활용해야 합니다. 지속적 통합(continuous integration) 을 도와주는 도구를 개발자가 만드는 코드에 테스트를 자동으로 할 수 있어 문제 감지가 쉽다. 외에도 빌드, 테스트, 배포 등의 절차를 자동화할 수 있어 개발 생산성을 크게 향상시킬 수 있다.

 

 

메시지 큐, 로그, 메트릭, 자동화등을 반영한 설계

  1. 메시지 큐는 각 컴포넌트가 느슨히 결합(loosely coupled)될 수 있도록 하고, 결함에 대한 내성을 높인다.
  2. 로그, 모니터링, 메트릭, 자동화 등을 지원하기 위한 장치를 추가

 

 

 

데이터베이스의 규모 확장

수직적 확장

스케일업이라고도 불리는 수직적 규모 확장은 기존 서버에 많은, 혹은 고성능의 자원을 증설하는 방법입니다. 하지만 단점으로 하드웨어에 한계로 무한 증설이 불가능하며, 단일 지점 장애, SPOF(Single Point of Failure) 로 인한 위험성이 크고, 비용이 많이 든다.

수평적 확장

데이터베이스의 수평적 확장은 샤딩(sharding)이라고 하는데, 더 많은 서버를 추가함으로써 성능을 개선합니다. 샤딩은 대규모 데이터베이스를 샤드(shard)라고 부르는 작은 단위로 분할하는 기술을 일컫으며, 모든 샤드는 같은 스키마를 쓰지만 샤드에 보관되는 데이터 사이에는 중복이 없습니다.

샤드로 분할된 데이터베이스에 분할 전략을 구현할 때 고려할 가장 중요한 부분은 샤딩 키(sharding key)를 어떻게 정하느냐 입니다. 샤딩 키는 파티션 키(partition key)라고도 부르는데, 데이터가 어떻게 분산될지 정하는 하나 이상의 컬럼으로 구성됩니다. 샤딩은 데이터베이스 규모 확장을 실현하는 훌룡한 기술이지만 문제들도 있습니다.

  • 데이터의 재 샤딩(resharding) : 재 샤딩은 1. 데이터가 너무 많아져서 하나의 샤드로는 더 이상 감당하기 어렵거나, 2. 샤드간 데이터 분포가 균등하지 못해 다른 샤드에 비해 공간 소모가 빠른 경우 샤드 소진(shard exhaustion) 이라고 부르는 현상이 발생하면 샤드 키를 구하는 함수를 변경하고 재 배치해야합니다.
  • 유명인사 (celebrity) 문제 : 핫스팟 키(hotspot key) 문제라고도 하며, 특정 샤드에 질의가 집중되어 서버에 과부하가 걸리는 경우를 의미합니다. 이 문제를 풀기 위해선 샤드 하나씩을 할당해야 할 수도 있고, 더 잘게 쪼개야 할 수도 있습니다.
  • 조인과 비정규화 (join and de-nomalization) : 하나의 데이터베이스를 여러 샤드 서버로 쪼개면 여러 샤드에 걸친 데이터를 조인하기 힘들어지게 됩니다. 이를 위해 데이터베이스를 비정규화하여 하나의 테이블에서 질의가 수행되도록 하는 것입니다.

 

 

 

데이터베이스 샤딩을 적용한 설계

백만 사용자, 그 이상

시스템의 규모를 확장하는 것은 지속적이고 반복적(iterative)인 과정입니다. 하지만 수백만 사용자 이상을 지원하려면 새로운 전략을 지원해야 합니다. 예로 시스템을 더욱 최적화하고 더 작은 단위의 서비스로 분할하는 경우도 있습니다. 다양한 기법을들 다시 정리하자면

  • 웹 계층은 무상태 계층으로
  • 모든 계층에 다중화 도입
  • 가능한 많은 데이터를 캐시
  • 여러 데이터 센터를 지원
  • 정적 컨텐츠는 CDN을 통해 서비스
  • 데이터 계층은 샤딩을 통해 규모를 확장
  • 각 계층은 독립적 서비스로 분할
  • 시스템을 지속적으로 모니터링하고 자동화 도구들을 활용