13.10 실전 유스케이스: 분산 AI 및 대규모 IoT 파이프라인 구축
이제 도구의 사용법을 넘어, 거대한 전장에서 승리하는 “전술 도면” 을 그릴 차례다.
Zenoh-Flow 의 진가는 단일 컴퓨터의 스케줄링을 넘어설 때 드러난다. 공장, 자율주행차 군집, 전국 단위의 CCTV 망이라는 3가지 거대한 시나리오를 통해 분산 데이터플로우의 궁극 아키텍처를 설계하는 실전 런북을 전개한다.
1. 스마트 팩토리: 다중 진동 센서 데이터 실시간 집계 및 이상 탐지 파이프라인
공장 내부 1,000대의 모터에 달린 진동 센서(MQTT) 데이터를 초당 1,000번씩 빨아들여, 이상 징후(Anomaly) 를 찾는다. 중앙 서버에 이 모든 데이터를 밀어 넣으면 서버가 첫날 터진다.
1.0.1 [Runbook] 계층적 엣지-집계(Hierarchical Aggregation) 런북
1. 라인별 엣지 머신 (1차 방어선)
- 파이프라인 노드: 10초 텀블링 윈도우 (Tumbling Window) 필터.
- 각 라인의 스위치단에 꽂혀 있는 엣지 데몬이 센서 100개의 데이터를 10초간
State지갑에 모은다(Aggregate). - 그런 다음 그 10초 동안의 “최대 진폭 값” 딱 1바이트만 뽑아서 다음 파이프로 던진다. 트래픽의 99.9% 가 이 노드에서 즉시 사살(Drop) 된다.
2. 통제실 ML 모델 (최종 요격)
- 파이프라인 노드: 이상 탐지(Isolation Forest) 파이썬 오퍼레이터.
- 통제실의 거대 서버는 더 이상 RAW 데이터를 받지 않는다. 1차 방어선을 뚫고 올라온 “10초 단위의 정갈한 특징점(Feature)” 들만 수신하여, 고작 5% 의 CPU 점유율로 1,000대의 모터 상태를 완벽하게 예측 감시한다.
Zenoh-Flow 만이 이 복잡한 트리 구조를 YAML 한 장으로 배포할 수 있다.
2. 자율주행 및 커넥티드 카: V2X 기반 다중 차량 간 협력 주행 데이터 융합
교차로에 진입하는 차량 A와 사각지대에서 달려오는 차량 B.
이 둘이 각자의 라이다(LiDAR) 데이터를 클라우드까지 쐈다가 내려받으면 레이턴시 탓에 둘 다 충돌해 사망한다.
Zenoh-Flow는 이 살인적인 속도를 제압하기 위해 V2X (Vehicle to Everything) 기반의 극단적 메시망 파이프라인을 짠다.
[모빌리티 데이터 융합 파이프라인]
- Multi-Source (차량 A, 차량 B의 브릿지): 두 차량의 분산된 ROS2 시스템에서 각각
Object(보행자)좌표 추론값을zenoh-source로 발사한다. - Operator (교차로의 에지 RSU - Road Side Unit): 클라우드가 아니다! 교차로 신호등에 매달린 RSU 컴퓨터(데몬)가 이 파이프라인의 C++ Join 노드를 돌린다.
A차량과 B차량의 좌표 데이터를 워터마크(Watermark) 동기화로 5ms 오차 내에서 합쳐(Sensor Fusion), 거대한 다중 차량 공통 맵(Global Occupancy Grid)을 찍어낸다. - Sink (충돌 경고 브로드캐스트): 조립된 상황판을 다시
zenoh-sink로 던져 주변의 모든 차량 브릿지에 “보행자 난입! 50미터 앞 멈춰!” 라는 긴급 제어 명령(Deadlined QoS)을 꽂아 넣는다.
이 전술에선 클라우드의 개입이 0%다. 오직 도로 위 차량(Edge)과 신호등(RSU)에 흩뿌려진 파이프라인 그래프만이 이 죽음의 교차로를 0.01초 지연 안에 지배한다!
3. 자율주행 및 커넥티드 카: V2X 기반 다중 차량 간 협력 주행 데이터 융합
내 차가 앞에 있는 트럭에 가려 신호등이 안 보일 때, 트럭이 보고 있는 카메라 데이터를 내 차의 브레인으로 즉각 수혈(Transfusion) 받는 궁극의 협력 시스템(V2V).
3.0.1 [인스펙션] 움직이는 데몬들의 클러스터링(Swarm)
자동차가 시속 100km 로 달리면, 1초마다 접속된 기지국(데몬)의 물리적 위치가 변한다.
1. IP리스(IP-less) 파이프라인 개통
- 당신은 트럭 데몬 IP 와 내 차 데몬 IP 를 알 길이 없다.
- YAML 의
mapping에 차량 고유의 GUID 나 키 규칙을 입력한다.mapping: "truck_001" - Zenoh 라우터가 물리적 5G 타워의 라우팅 테이블을 뒤져서, 트럭의 전방 비전 C++ 필터와 내 차의 융합 필터를 허공에서(QUIC 터널) 강제로 접합시킨다.
2. 데드라인의 강제 룰
차량이 수십 미터 떨어지는 순간 무수한 패킷 로스(Loss) 가 터진다.
이 파이프라인 퓨전 필터에는 무조건 워터마크 와 데드라인 이 걸려 있어야 한다. “트럭 데이터가 20ms 안에 안 오면, 그냥 내 차 센서만 100% 믿고 가속하라!” 라는 가중치(Weight) 폐기 런북이 들어가 있지 않으면, 앞차 데이터 기다리다 내 차가 벽에 박는다.
4. 지능형 CCTV 시스템: 분산된 에지 디바이스에서의 AI 비전 추론 및 클라우드 영상 요약 시스템 설계
전국 10,000대의 방범용 CCTV 영상을 중앙 AWS 센터로 모두 스트리밍한다면 통신 비용만 한 달에 수억 원이 깨진다.
4.0.1 [Runbook] 데이터 칼질과 스냅샷 추출 전술
영상(Video) 이라는 가장 무거운 죄악을 어떻게 현장에서 도살할 것인가.
1. 엣지 AI 필터의 1차 도살 (가로등 기둥)
- 파이프 1 (Camera Source): 초당 30프레임 (FHD) 로 뿜어낸다.
- 파이프 2 (Rust YOLO Operator): 가로등 밑의 싸구려 넷북에서 돈다. 영상을 받아 사람의 형체만 딴다. 사람이 없으면 들어온 사진 데이터(Payload) 포인터를 그대로 메모리에서 폐기(Drop) 해버린다. 네트워크 송출량
0 Byte.
2. 영상 크롭퍼(Cropper) 의 2차 도살
- 사람이 발견되었다 하더라도, 원본 FHD 사진을 보내지 않는다.
- 파이프라인의 다음 노드는 YOLO 모델이 혀 놓은 바운딩 박스(좌표) 만 받아서 그 부분(사람 얼굴) 만 100x100 픽셀로 오려버린다. 네트워크 송출량은 폭발적으로 감소한다.
3. 클라우드 딥-애널리틱스 싱크(Sink)
- 잘린 100x100 사진만 클라우드(서버 데몬) 의 범죄자 대조 모델(PyTorch) 로 빨려 들어간다. 판독을 마친 최종 결과 포트는 Zenoh Storage(Elasticsearch) 에 문자열 저장 쿼리로 종단(Termination) 처리된다.
이것이 Zenoh-Flow 기반의 하이브리드 인공지능이 무너진 물리학(스케일 한계)을 극복하는 예술적인 파이프라인 모델이다.