인터넷의 발달은 데이터 통신을 보다 활발하게 만들었고, 이는 트래픽의 폭발적인 증가로 이어졌다. 그 결과 아무리 성능이 뛰어난 서버라고 해도 모든 트래픽을 감당해낼 수 없게 된다. 이는 기업들이 서버를 추가로 구비하고 여러 대의 서버에 동일한 데이터를 저장해 수많은 트래픽을 효과적으로 분산하게 된다.

하지만 단순히 다수의 서버를 구축해 운영한다고 해서 모든 클라이언트의 요청에 일관성 있게 응답할 순 없다. 쏟아지는 트래픽을 여러 대의 서버로 분산해주는 기술이 없다면 한 곳에 서버에 모든 트래픽이 몰리는 상황이 발생한다. 이때 필요한 기술이 로드밸런싱이다.

로드 밸런서

로드 밸런서는 서버에 가해지는 부하(=로드)를 분산(=밸런싱)해주는 장치 또는 기술을 통칭한다. 클라이언트와 서버풀(Server Pool, 분산 네트워크를 구성하는 서버들의 그룹) 사이에 위치하며, 한 대의 서버로 부하가 집중되지 않도록 트래픽을 관리해 각각의 서버가 최적의 퍼포먼스를 보일 수 있도록 한다.

<aside> 💡 로드밸런싱을 모든 경우에 항상 필요할까? 로드 밸런싱은 여러 대의 서버를 두고 서비스를 제공하는 분산 처리 시스템에서 필요한 기술이다.

서비스의 제공 초기 단계라면 적은 수의 클라이언트로 인해 서버 한대로 요청에 응답하는 것이 가능하다. 하지만 사업의 규모의 확장되고, 클라이언트 수가 늘어나게 되면 기존 서버만으로는 정상적인 서비스가 불가능하게 된다. 이처럼 증가한 트래픽에 대처할 수 있는 방법은 두가지가 있다.

</aside>

Scale-up / Scale-out

Scale-up : 서버 자체의 성능을 확장하는 것

       ex. CPU가 i3인 컴퓨터를 i7으로 업그레이드 하는 것.

Scale-out: 기존 서버와 동일하거나 낮은 성능의 서버를 두 대 이상 증설하여 운영하는 것을 의미한다.

            ex. CPU가 i3인 컴퓨터를 여러 대 추가 구입해 운영하는 것

scale-out 방식으로 서버를 증설하기로 결정했다면 여러 대의 서버로 트래픽을 균등하게 분산해주는 로드밸런싱이 반드시 필요하다.

다양한 로드밸런싱 알고리즘

클라이언트의 요청을 특정 서버에 분배하는 로드밸런싱 기법은 여러 가지가 있다. 활용할 수 있는 부하 분산 방식(로드밸런싱 알고리즘)에 대해 알아보자