본 블로그에서는 LTE C-RAN의 Fronthaul 구간에서 발생하는 지터(Jitter) 이야기를 해보려고 합니다.
지터(Jitter)라는 것은 오른쪽 그림처럼 통신시스템들이 주고 받는 디지털 신호의 시간 또는 위상이 틀어지는 현상을 말합니다. 지터가 생기게 되면, 신호를 수신할 때, 데이터와 클럭을 복구하는 과정에서 에러가 발생할 수 있습니다.
그렇다면, LTE C-RAN에서 지터를 고민해야 하는 이유가 무엇일까요?
LTE C-RAN (Centralized/Cloud RAN)에서는 BBU와 RRH가 수십 Km 이격되어 있고 이 사이에는 BBU와 RRH간에 CPRI 트래픽을 나르는 Fronthaul망이 존재합니다. 원격으로 떨어져 있는 RRH는 자신이 연결되어 있는 BBU와 주파수를 동기화(Frequency Synchnonization)해야 하는 데, BBU는 GPS로 "마스터 기준 클럭"를 생성하지만 RRH에는 GPS가 없습니다 (RRH가 대략 수백만원 정도인데, GPS는 수십만원 정도 합니다. 따라서 RRH에 GPS를 탑재하면 재료비가 상당히 올라가겠지요). 그래서 RRH는 BBU에서 전달되어 오는 I/Q 비트 스트림을 통해 기준 클럭을 복원하고 이를 이용하여 RRH 전체 시스템에 사용되는 클럭을 생성합니다.
Fronthaul망이 Dark fiber로만 이루어지는 경우에는 BBU와 RRH간에 fiber자체에서 지터는 거의 발생하지는 않습니다.
그러나 Fronthaul망에 Active WDM이나 PON과 같은 Active Equipement가 존재하는 경우에는 이 장비들에서 Mapping/Muxing (예를 들어, OTN의 경우 OTN mapping/demaping/multiplexing )등의 과정에서 Jitter가 발생하며 Jitter가 섞여진 I/Q 비트스트림을 수신하는 RRH는 기준 클럭 복원에 문제가 발생하고 따라서 RRH의 시스템 성능을 떨어뜨리게 됩니다.
RRH에서 복구한 기준 클럭의 정확도가 떨어지면, 그 클럭을 이용하는 주요 부품의 동작에도 연쇄적으로 영향을 주게 됩니다. 예를 들어, LTE 디지털 신호(I/Q sample data)를 아날로그 신호로 변환하는 역할을 하는 DAC(Digital Analog Converter)가 출력하는 LTE 아날로그 신호에 오차가 발생할 수 있고, LTE 신호를 무선으로 송출하는데 사용하는 캐리어 신호의 주파수에도 오류가 발생할 수 도 있습니다. 결국, Fronthaul 지터가 RRH의 안테나를 통해 송신되는 LTE 무선 신호의 품질을 저하시키는 요인이 된다는 의미가 됩니다.
따라서 C-RAN을 위한 Fronthaul 구축시, Fronthaul내의 Active 장비에서 발생하는 지터가 허용치 이하인 지에 관해 철저한 검증이 필요합니다.
그렇다면, BBU와 RRH의 클럭간의 편차를 어느 정도까지 줄여야 하는 것일까요? 이부분이 애매할 수 있습니다. 특히, Fronthaul 구간에 지터가 유입되면, RRH가 복구한 클럭의 정확도가 떨어지고, 연쇄적으로 RRH가 송출하는 LTE 무선 신호의 품질도 떨어질 수 있기 때문에, RRH 클럭의 정확도에 대한 기준을 명확히 할 필요가 있습니다. 이를 위해, CPRI 규격은 Fronthaul 구간 지터가 RRH가 복구한 클럭의 주파수의 정확도(BBU의 마스터 기준 클럭 대비)에 미치는 영향을 수치화하여 정의하고 있습니다.
위의 그림은 RRH에 복구한 클럭 주파수를 BBU의 클럭주파수(fo)를 기준으로 표시한 그래프인데, RRH에서 복구된 클럭의 주파수(fo+Δf)가 오리지널 BBU 클럭과 비교하여 편차가 발생하고 있는 상황을 보여주고 있습니다.
CPRI 규격 문서(CPRI Specification_v_6/2013-08-30)의 기술 요구사항 중 하나인, R-18은 RRH의 클럭 주파수 편차의 허용치를 '±0.002ppm'로 정의하고 있습니다. 이 규격의 의미는 "RRH에서 복구한 기준 클럭의 주파수 편차에 대해 Fronthaul 구간의 지터가 주는 영향은 BBU의 클럭 주파수의 '10억분의 2'의 크기를 넘지 않도록 해야 한다"입니다. RRH의 기준 클럭의 정확도에 영향을 주는 원인들은 Fronthaul의 지터 이외에도 있을 수 있기 때문에, 그것들 중 Fronthaul 구간의 지터에 해당되는 지분(Budget)만을 구분하여 규정한 것이라고 이해하시면 될 것 같습니다 .
참고: ppm/ppb(parts per million/billion) 단위는 백분율(%) 처럼, '백만분의 1' 또는 '10억분의 1'의 비율로 크기를 나타내기 위해 사용하게 됩니다. 예를 들어, BBU의 기준 주파수가 30.72MHz라고 가정한다면, 2ppb의 정확도 오차는 0.06144Hz가 됩니다.
좋은글 감사합니다.
잘 봤습니다!
very good~
잘 정리하신 좋은 글입니다.
그러나 클록 동기에 대해서는 위의 내용 뿐 아니라 다른 요소도 있슴을 설명 드리겠습니다.
실제 현장에서 사례입니다(현장위치와 조치 내용은 생략)
언젠가 수백 개 사이트에 LTE RRH가 설치되었는데, 얼마 후 부터 여러 사이트에서 동시 다발적으로 전송률 저하 현상이 발생하였습니다.
그렇지만 EMS에는 경보나 오류로 나타나지 않습니다. 몇일 동안 현장 채취 로그 데이터를 분석하였으나 공통점을 찾을 수 없었습니다.
혹시나하여 오류(비트오류/프레임동기상실)가 감지된 각 사이트의 에러 발생 시간과 온도 변화를 비교해 보니 상관이 있었습니다.
결론은 광케이블의 굴절율이 온도에 따라서 변하여 광속 자체가 변화하였기 때문이었습니다. 즉, 20Km 기준으로 1도 올라가면 약 1ns 증가하였습니다. 이에따라 시스템 클럭(122.88MHz)으로 동작하는 Serdes 내(DU의 UL 수신 측)의 탄성버퍼의 한계를 넘었기 때문이었습니다.
따라서 재생된 클럭의 품질 요소로서 지터만 문제가 되는 것이 아니라 광속변화에 의한 Phase error 도 문제가 됩니다.
이 내용도 포함되어 보강되면 좋겠습니다.