1.1 데이터 통신 패러다임의 진화 배경
현대의 컴퓨팅 아키텍처는 고립된 단일 시스템 연산의 시대를 지나 수억 개의 이기종 디바이스가 유기적으로 상호 작용하는 전 지구적 분산 시스템(Distributed System)의 시대로 진입하였다. 초창기 글로벌 네트워크 통신 모델은 특정 IP 주소와 포트 번호에 기반하여 두 지점을 정적으로 연결하는 호스트 중심(Host-centric)의 점대점(Point-to-Point) 아키텍처를 근간으로 발전하였다. 이러한 초기 인터넷 프로토콜 설계는 상대적으로 안정적인 유선 네트워크 인프라와 고정된 물리적 위치를 전제하였기에 당시의 통신 요구 및 신뢰성 확보에는 적합하였다.
그러나 21세기에 접어들며 사물인터넷(IoT) 기술이 비약적으로 발전하고 클라우드(Cloud) 컴퓨팅이 보편화됨에 따라 통신 토폴로지(Topology)는 근본적인 전환기를 직면하게 되었다. 데이터 생산 노드와 소비 노드의 수가 폭발적으로 증가하고 노드의 물리적 위치가 빈번하게 변화하는 모바일 환경에서는, 엄격한 위치 지향적 네트워크 라우팅 레이어가 막대한 통신 오버헤드와 확장성의 제약을 초래하였다. 이를 극복하고자 중간에 중개자(Broker)를 두거나 토픽(Topic)을 매개로 송신자와 수신자의 결합도를 느슨하게 한 발행/구독(Publish/Subscribe) 패러다임이 등장하며 분산 미들웨어 진화의 중요한 축을 형성하였다.
이후 네트워크 대역폭의 한계와 중앙 서버로의 과도한 데이터 집중을 해결하기 위해 에지 컴퓨팅(Edge Computing) 아키텍처가 새롭게 대두되었다. 이는 자율주행, 스웜 로보틱스(Swarm Robotics), 산업 자동화 등 밀리초(ms) 단위의 초저지연 연산을 요구하는 현장에서 데이터를 직접 분산 처리하는 구조를 채택한다. 그런데 이로 인해 네트워크 인프라는 거대한 데이터 센터부터 수십 킬로바이트(KB) 용량의 메모리와 저전력 프로세서를 탑재한 초소형 마이크로컨트롤러(Microcontroller)까지 포함하는 극단적인 엔드-투-엔드 컨티뉴엄(End-to-End Continuum)을 이루게 되었다.
결과적으로, 기존의 레거시 프로토콜들은 이러한 복합적인 분산 컴퓨팅의 극적인 변화를 단일 계층에서 처리하기에는 그 오버헤드가 지나치게 높았으며 구조적으로 파편화되어 있었다. 이러한 한계 상황은 궁극적으로 네트워크 레이어 상의 데이터가 물리적 위치가 아닌 ’정보 자체’로 식별되어야 한다는 데이터 중심(Data-centric) 아키텍처의 철학적 부상으로 이어졌다. 통신 패러다임은 이제 노드 간의 단순 연결을 넘어, 이동 중인 데이터(Data in Motion)와 대기열의 데이터(Data at Rest)를 투명하게 통합하고 제로 오버헤드(Zero Overhead) 원칙을 통해 자원의 제약 없이 소통할 수 있는 Zenoh와 같은 차세대 프로토콜을 필연적으로 요구하게 된 것이다.