7.12 센서별 성능 비교와 상호 보완 관계
1. 주요 센서의 성능 특성 비교
자율주행에 사용되는 주요 외부 인지 센서인 카메라, LiDAR, 레이더, 초음파 센서는 각각 고유한 물리적 원리에 기반하며, 이에 따라 측정 가능한 물리량, 분해능, 탐지 범위, 환경 강건성 등의 특성이 상이하다. 아래 표는 네 가지 센서의 핵심 성능 항목을 비교 정리한 것이다.
| 성능 항목 | 카메라 | LiDAR | 레이더 | 초음파 |
|---|---|---|---|---|
| 측정 원리 | 가시광/근적외선 수동 수광 | 레이저 능동 ToF/FMCW | 밀리미터파 능동 FMCW | 초음파 능동 ToF |
| 거리 측정 | 간접(스테레오, 단안 추정) | 직접(고정밀) | 직접(고정밀) | 직접(저정밀) |
| 속도 측정 | 간접(프레임 간 추적) | 간접(프레임 간 추적) / 직접(FMCW) | 직접(도플러) | 불가 |
| 공간 분해능 | 매우 높음(수백만 픽셀) | 높음(점군 밀도 의존) | 낮음–중간(4D 이미징 시 향상) | 매우 낮음 |
| 최대 탐지 거리 | 수백 m(인식 정확도 저하) | 100–300 m(센서 사양 의존) | 200–350 m | 2–5 m |
| 시야각(FoV) | 넓음(렌즈 선택에 의존) | 기계식 360°, 고체상태 120° | 좁음(LRR) ~ 넓음(SRR) | 약 50°–70°(원추형) |
| 야간 동작 | 제한적(조명 의존) | 정상 동작 | 정상 동작 | 정상 동작 |
| 비/안개/눈 | 성능 저하 | 성능 저하(산란) | 강건 | 강건(근거리) |
| 직사광선/역광 | 성능 저하 | 약간의 간섭 | 무관 | 무관 |
| 색상/질감 정보 | 풍부 | 반사 강도만 제공 | 없음 | 없음 |
| 의미적 인식 | 우수(텍스트, 신호등, 차선) | 제한적 | 제한적 | 불가 |
| 단가 | 낮음 | 높음(하락 추세) | 낮음–중간 | 매우 낮음 |
출처: Yeong et al. (2021), Rosique et al. (2019)를 기반으로 재구성.
2. 측정 차원별 상세 비교
2.1 거리 측정 성능
LiDAR는 레이저 펄스의 비행 시간을 직접 측정하여 센티미터 수준의 거리 정확도(±2–3 cm)를 달성한다. 레이더는 FMCW 비트 주파수 분석을 통해 유사한 수준의 거리 정확도를 제공하며, 특히 79 GHz 광대역(4 GHz) 사용 시 거리 분해능 약 3.75 cm를 달성한다. 카메라는 단일 프레임에서 직접적인 거리 측정이 불가능하며, 스테레오 카메라의 시차(disparity) 계산이나 단안 깊이 추정(monocular depth estimation) 심층 학습 모델을 통해 간접적으로 거리를 추정한다. 스테레오 카메라의 거리 추정 오차는 거리의 제곱에 비례하여 증가하므로(\sigma_z \propto z^2 / (f \cdot b), 여기서 f는 초점 거리, b는 기선 길이), 원거리에서의 정확도가 제한된다(Scharstein & Szeliski, 2002).
2.2 속도 측정 성능
레이더는 도플러 효과를 이용하여 시선 방향(radial) 상대 속도를 단일 프레임에서 직접 측정하며, 이는 레이더 고유의 장점이다. 속도 측정 정확도는 일반적으로 ±0.1 m/s 수준이다. FMCW LiDAR도 원리적으로 도플러 속도 측정이 가능하나, 현재 상용 제품의 대부분은 ToF 방식으로서 속도 정보를 직접 제공하지 않는다. 카메라와 ToF LiDAR는 연속 프레임 간 대응점 추적(correspondence tracking)을 통해 속도를 간접적으로 추정하며, 추적 알고리즘의 정확도와 프레임률에 의존한다.
2.3 공간 분해능과 객체 인식 능력
카메라는 수백만 화소의 2차원 영상을 제공하여 가장 높은 공간 분해능을 갖는다. 이를 통해 차선 표시, 교통 표지판, 신호등의 색상, 텍스트 등 의미적(semantic) 정보를 풍부하게 인식할 수 있다. LiDAR는 3차원 점군을 통해 객체의 기하학적 형상을 높은 정밀도로 포착하나, 색상이나 질감 정보는 제공하지 않는다. 레이더는 기존 제품에서 각도 분해능이 낮아 객체의 형상 인식이 어려웠으나, 4D 이미징 레이더의 등장으로 레이더 점군 기반의 형상 인식이 가능해지고 있다.
2.4 환경 강건성
| 환경 조건 | 카메라 | LiDAR | 레이더 | 초음파 |
|---|---|---|---|---|
| 야간(무조명) | × | ○ | ○ | ○ |
| 강우(50 mm/h) | △ | △ | ○ | ○ |
| 짙은 안개(가시거리 < 50 m) | × | × | ○ | ○ |
| 강설 | △ | △ | ○ | ○ |
| 직사광선/역광 | × | △ | ○ | ○ |
| 먼지/분진 | △ | △ | ○ | ○ |
○: 정상 동작, △: 성능 저하, ×: 심각한 성능 저하 또는 동작 불가
출처: Bijelic et al. (2020), Hasirlioglu et al. (2016).
레이더는 모든 기상 조건에서 가장 강건한 성능을 보이며, 이는 밀리미터파의 대기 투과 특성에 기인한다. 카메라와 LiDAR는 비, 안개, 눈 등의 조건에서 성능이 저하되며, 특히 카메라는 야간과 역광 조건에서 취약하다.
3. 센서 간 상호 보완 관계
자율주행에 단일 센서만으로는 모든 주행 시나리오와 환경 조건에서 요구되는 인지 성능을 달성할 수 없다. 각 센서의 장점이 다른 센서의 한계를 보완하는 상호 보완적 관계는 다중 센서 구성(multi-sensor configuration)과 센서 융합의 근본적 동기를 형성한다.
3.1 카메라와 LiDAR의 상호 보완
카메라는 풍부한 의미적 정보(색상, 질감, 텍스트)를 제공하나 정확한 3차원 거리 정보가 부족하다. LiDAR는 정밀한 3차원 기하 정보를 제공하나 의미적 정보가 제한적이다. 두 센서를 융합하면 LiDAR 점군의 각 점에 카메라의 의미적 레이블(semantic label)을 투영하여 3차원 의미적 분할(3D semantic segmentation)을 수행하거나, 카메라 영상의 각 화소에 LiDAR의 깊이 값을 배정하여 밀도 높은 깊이 맵(dense depth map)을 생성할 수 있다(Vora et al., 2020).
3.2 카메라와 레이더의 상호 보완
카메라는 높은 공간 분해능으로 객체의 형상과 분류 정보를 제공하고, 레이더는 기상 강건성과 직접 속도 측정 능력을 제공한다. 카메라가 안개나 야간 조건에서 성능이 저하될 때 레이더가 거리와 속도 정보의 연속성을 유지하며, 레이더의 낮은 각도 분해능으로 인한 횡방향 위치 모호성은 카메라의 영상 기반 위치 추정으로 보완된다. CameraRadar 융합은 ADAS에서 가장 널리 보급된 센서 조합이며, LiDAR 없이도 비용 효율적인 인지 시스템을 구성할 수 있다(Chadwick et al., 2019).
3.3 LiDAR와 레이더의 상호 보완
LiDAR는 높은 공간 분해능의 3차원 점군을 제공하나, 비와 안개에서의 산란과 직접적인 속도 측정의 부재(ToF 방식)가 한계이다. 레이더는 기상 강건성과 직접 속도 측정 능력으로 LiDAR의 이러한 한계를 보완한다. 반대로, LiDAR의 정밀한 3차원 기하 정보는 레이더의 낮은 각도 분해능으로 인한 공간 모호성을 해소한다.
3.4 근거리 보완: 초음파 센서의 역할
카메라, LiDAR, 레이더는 모두 수 미터 이내의 극근거리에서 사각지대(blind zone)를 가질 수 있다. LiDAR는 최소 탐지 거리 제한이 있고, 레이더는 근거리에서 클러터 문제가 심화된다. 초음파 센서는 이 극근거리 영역에서 신뢰성 있는 장애물 탐지를 제공하여 주차 및 저속 기동 시나리오를 보완한다.
4. 센서 조합 구성 전략
4.1 카메라 중심 구성(Camera-Centric)
Tesla로 대표되는 카메라 중심 접근법은 다수의 카메라를 주 센서로 사용하고, 심층 학습 모델을 통해 3차원 인지를 수행한다. 비전 기반 깊이 추정, BEV(Bird’s Eye View) 표현 학습 등의 기술 발전에 의해 LiDAR 없이도 높은 수준의 3차원 인지가 가능해지고 있다. 원가 이점이 있으나, 기상 악조건 및 야간 성능의 강건성 확보가 과제이다.
4.2 LiDAR 중심 구성(LiDAR-Centric)
Waymo, Cruise 등의 Level 4 자율주행 기업은 LiDAR를 주 센서로 채택하고, 카메라와 레이더를 보조 센서로 활용한다. LiDAR의 정밀한 3차원 기하 정보를 기반으로 높은 신뢰도의 인지를 수행하며, 카메라로 의미적 인식을, 레이더로 기상 강건성과 속도 정보를 보완한다. 높은 인지 성능을 달성할 수 있으나 센서 비용이 높다.
4.3 전 센서 융합 구성(Full-Suite Fusion)
카메라, LiDAR, 레이더, 초음파를 모두 탑재하여 각 센서의 장점을 최대한 활용하는 구성이다. 대부분의 Level 4 이상 자율주행 시스템이 이 구성을 채택하고 있다. 센서 간 이중화(redundancy)를 통해 단일 센서 고장 시에도 인지 기능의 연속성을 보장하며, 안전 무결성(safety integrity) 확보에 유리하다.
5. 정량적 성능 비교 요약
| 비교 항목 | 카메라 | LiDAR | 레이더(기존) | 레이더(4D 이미징) | 초음파 |
|---|---|---|---|---|---|
| 거리 정확도 | 낮음(단안)/중간(스테레오) | 높음(±2–3 cm) | 높음(±5 cm) | 높음(±5 cm) | 중간(±1–3 cm) |
| 속도 측정 | 간접 | 간접(ToF)/직접(FMCW) | 직접(±0.1 m/s) | 직접(±0.1 m/s) | 불가 |
| 각도 분해능 | ~0.05° | ~0.1°–0.4° | ~1°–6° | ~1° | 불가 |
| 프레임률 | 30–60 Hz | 10–20 Hz | 10–20 Hz | 10–20 Hz | 10–20 Hz |
| 기상 강건성 | 낮음 | 중간 | 높음 | 높음 | 중간 |
| 상대 단가 | $ | $$ | $$$ | $ |
이 비교에서 확인할 수 있듯이, 단일 센서가 모든 항목에서 우위를 점하지 않으며, 각 센서의 강점과 약점이 상이한 차원에 분포한다. 이러한 상호 보완성이 자율주행에서 다중 센서 융합이 필수적인 근본적 이유이다(Feng et al., 2021).
참고문헌
- Bijelic, M., Gruber, T., Manber, F., Kraus, S., Ritter, W., Dietmayer, K., & Heide, F. (2020). Seeing through fog without seeing fog: Deep multimodal sensor fusion in unseen adverse weather. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 11682–11692.
- Chadwick, S., Maddern, W., & Newman, P. (2019). Distant vehicle detection using radar and vision. IEEE International Conference on Robotics and Automation (ICRA), 8311–8317.
- Feng, D., Haase-Schütz, C., Rosenbaum, L., Hertlein, H., Glaeser, C., Timm, F., Dietmayer, K., & Schlichtharle, F. (2021). Deep multi-modal object detection and semantic segmentation for autonomous driving: Datasets, methods, and challenges. IEEE Transactions on Intelligent Transportation Systems, 22(3), 1341–1360.
- Hasirlioglu, S., Doric, I., Lauerer, C., & Brandmeier, T. (2016). Modeling and simulation of rain for the test of automotive sensor systems. IEEE Intelligent Vehicles Symposium (IV), 286–291.
- Rosique, F., Navarro, P. J., Fernández, C., & Padilla, A. (2019). A systematic review of perception system and simulators for autonomous vehicles research. Sensors, 19(3), 648.
- Scharstein, D., & Szeliski, R. (2002). A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision, 47(1–3), 7–42.
- Vora, S., Lang, A. H., Helber, B., Beijbom, O., & Caesar, H. (2020). PointPainting: Sequential fusion for 3D object detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 4604–4612.
- Yeong, D. J., Velasco-Hernandez, G., Barry, J., & Walsh, J. (2021). Sensor and sensor fusion technology in autonomous vehicles: A review. Sensors, 21(6), 2140.
버전: v1.0, 2026-04-11