7.1 자율주행 센서의 개요와 분류
자율주행 시스템은 주변 환경을 인지하기 위하여 다양한 센서를 탑재한다. 센서는 자율주행 시스템의 “감각 기관“에 해당하며, 인지 모듈에 원시 데이터(raw data)를 공급하는 최전방 구성 요소이다. 센서의 성능과 신뢰성은 자율주행 시스템의 전체적인 안전성과 기능 수준을 결정짓는 근본적 요인이다. 본 절에서는 자율주행에서 사용되는 센서의 필요성, 분류 체계, 그리고 각 센서 양식(modality)의 기본적 특성을 개관한다.
1. 자율주행에서 센서의 필요성
자율주행 차량이 안전하게 운행되기 위해서는 다음과 같은 환경 정보를 실시간으로 획득해야 한다.
- 주변 객체 정보: 다른 차량, 보행자, 자전거, 동물 등의 위치, 크기, 속도, 이동 방향
- 도로 구조 정보: 차선 경계, 도로 가장자리, 교차로 형상, 경사 및 곡률
- 교통 규제 정보: 교통 신호등의 상태, 교통 표지판의 내용, 노면 표시
- 자차 위치 정보: 전역 좌표계에서의 정밀한 자차 위치와 방향
- 자유 공간 정보: 차량이 주행 가능한 영역과 장애물이 존재하는 영역의 구분
인간 운전자는 주로 시각과 청각을 통하여 이러한 정보를 획득하지만, 자율주행 시스템은 전자 센서를 통하여 이를 수행한다. 인간의 인지 능력에는 주의력 분산, 피로, 사각지대 등의 한계가 존재하며, 센서는 이러한 한계를 극복할 수 있는 잠재력을 가진다.
2. 센서의 분류 체계
자율주행에서 사용되는 센서는 다양한 기준에 따라 분류할 수 있다.
2.1 측정 대상에 따른 분류
| 분류 | 센서 유형 | 측정 대상 |
|---|---|---|
| 외부 환경 인지(Exteroceptive) | 카메라, LiDAR, 레이더, 초음파 | 주변 환경의 객체, 도로, 표지판 등 |
| 자기 수용(Proprioceptive) | IMU, 차륜 속도 센서, 조향각 센서 | 차량 자체의 운동 상태 |
| 위치 결정(Localization) | GNSS, RTK-GNSS | 전역 좌표계에서의 차량 위치 |
외부 환경 인지 센서(exteroceptive sensor)는 차량 외부의 환경을 감지하며, 인지 모듈의 주요 입력원이다. 자기 수용 센서(proprioceptive sensor)는 차량의 내부 상태(속도, 가속도, 회전 속도 등)를 측정하며, 제어 모듈과 위치 추정에 활용된다.
2.2 에너지 방출 여부에 따른 분류
| 분류 | 특성 | 해당 센서 |
|---|---|---|
| 능동형(Active) | 자체적으로 에너지(빛, 전파, 음파)를 방출하고 반사 신호를 수신 | LiDAR, 레이더, 초음파 |
| 수동형(Passive) | 외부 에너지원(태양광 등)에서 반사 또는 방출된 에너지를 수신 | 카메라, 적외선 카메라 |
능동형 센서는 자체 에너지를 방출하므로 조명 조건에 독립적으로 동작할 수 있으나, 방출 에너지의 간섭 문제가 발생할 수 있다. 수동형 센서는 외부 조명에 의존하므로 야간이나 저조도 환경에서의 성능이 제한될 수 있다.
2.3 사용 파장 대역에 따른 분류
자율주행 센서가 사용하는 전자기파의 파장 대역은 다음과 같다.
| 센서 | 파장 대역 | 주파수 범위 |
|---|---|---|
| 카메라 | 가시광선 (380~780 nm) | \approx 4 \times 10^{14} ~ 8 \times 10^{14} Hz |
| 적외선 카메라 | 근적외선~원적외선 (0.7~14 \mum) | \approx 2 \times 10^{13} ~ 4 \times 10^{14} Hz |
| LiDAR | 근적외선 (850~1550 nm) | \approx 2 \times 10^{14} Hz |
| 레이더 | 밀리미터파 (3.8~3.9 mm) | 76~81 GHz |
| 초음파 | 음파 (\approx 8 mm) | 40~48 kHz |
파장이 짧을수록 각도 분해능이 높아지는 반면, 대기 중의 입자(물방울, 먼지 등)에 의한 산란과 감쇠가 증가한다. 이러한 물리적 특성이 각 센서의 악천후 내성을 결정짓는 주요 요인이다.
3. 주요 센서 양식의 개관
3.1 카메라
카메라는 가시광선 영역의 전자기파를 2차원 영상으로 변환하는 수동형 센서이다. 높은 공간 해상도와 풍부한 시각 정보(색상, 질감, 형태)를 제공하여 객체 분류, 차선 검출, 교통 표지판 인식 등에서 핵심적인 역할을 수행한다. 그러나 직접적인 거리 정보를 제공하지 못하며, 조명 조건에 민감하다는 한계가 있다.
3.2 LiDAR
LiDAR는 레이저 펄스를 방출하고 반사 신호의 왕복 시간(Time of Flight)을 측정하여 주변 환경의 3차원 점군(point cloud) 데이터를 생성하는 능동형 센서이다. 정밀한 거리 측정(\pm 수 cm)과 3차원 형상 정보의 직접 획득이 가능하며, 조명 조건에 독립적으로 동작한다. 그러나 색상 정보를 제공하지 못하고, 악천후 시 레이저 산란에 의한 성능 저하가 발생한다.
3.3 레이더
레이더는 밀리미터파 대역의 전파를 사용하는 능동형 센서로, 거리와 도플러 효과에 의한 상대 속도를 직접 측정할 수 있다. 악천후와 야간에서도 안정적으로 동작하며, 장거리 탐지가 가능하다. 그러나 카메라와 LiDAR에 비하여 각도 분해능이 낮다.
3.4 초음파 센서
초음파 센서는 음파를 방출하고 반사 시간을 측정하여 근거리(0.2~5 m)의 장애물을 검출하는 센서이다. 주로 주차 보조에 사용되며, 원가가 매우 낮다. 그러나 탐지 범위가 짧고 각도 분해능이 낮아, 고속 자율주행에서의 활용은 제한적이다.
3.5 GNSS(Global Navigation Satellite System)
GNSS는 위성 신호를 수신하여 차량의 전역 위치를 산출하는 센서이다. 단독 GNSS의 위치 정확도는 수 미터 수준이나, RTK(Real-Time Kinematic) 보정을 적용하면 센티미터 수준의 정밀도를 달성할 수 있다. 터널, 고층 건물 밀집 지역 등 위성 신호가 차단되거나 다중 경로(multipath) 간섭이 발생하는 환경에서 성능이 저하된다.
3.6 IMU(Inertial Measurement Unit)
IMU는 가속도계(accelerometer)와 자이로스코프(gyroscope)를 포함하며, 차량의 가속도와 각속도를 측정한다. IMU는 GNSS와 결합하여 관성 항법 시스템(INS, Inertial Navigation System)을 구성하며, GNSS 신호가 불안정한 구간에서의 위치 추정 연속성을 보장한다.
4. 자율주행 등급과 센서 구성의 관계
자율주행의 등급이 높아질수록 요구되는 센서의 수, 종류, 그리고 성능 수준이 증가한다. 일반적인 센서 구성의 추세는 다음과 같다.
| 자율주행 등급 | 전형적 센서 구성 |
|---|---|
| Level 1~2 (운전자 보조) | 전방 카메라 1대, 레이더 1~2대, 초음파 |
| Level 3 (조건부 자동화) | 전방/측방 카메라, LiDAR 또는 다중 레이더, 초음파, GNSS/IMU |
| Level 4~5 (고도/완전 자동화) | 다중 카메라 (6~12대), 다중 LiDAR (1~5대), 다중 레이더 (4~6대), 초음파, RTK-GNSS/IMU |
Level 4 이상의 자율주행에서는 센서 고장이나 특정 센서의 성능 저하 시에도 안전한 운행을 보장하기 위하여 센서 이중화(sensor redundancy)와 센서 융합이 필수적이다.
5. 센서 선택의 기본 원칙
자율주행 시스템의 센서 구성을 결정할 때 고려해야 하는 기본 원칙은 다음과 같다.
- 상호 보완성(Complementarity): 각 센서의 한계를 다른 센서가 보완하도록 조합한다. 예를 들어, 카메라의 거리 측정 한계를 LiDAR가, LiDAR의 의미론적 정보 부재를 카메라가 보완한다.
- 이중화(Redundancy): 동일한 기능을 수행하는 복수의 센서를 배치하여, 단일 센서 고장 시에도 해당 기능이 유지되도록 한다.
- 전방위 커버리지(360° Coverage): 차량 주변의 전 방위를 사각지대 없이 감시할 수 있도록 센서를 배치한다.
- 다양한 탐지 거리: 근거리(주차, 저속 기동)부터 원거리(고속도로 주행)까지의 요구사항을 충족하는 센서 조합을 구성한다.
참고문헌
- Yurtsever, E., Lambert, J., Carballo, A., & Takeda, K. (2020). A Survey of Autonomous Driving: Common Practices and Emerging Technologies. IEEE Access, 8, 58443–58469.
- Li, Y., & Ibanez-Guzman, J. (2020). Lidar for Autonomous Driving: The Principles, Challenges, and Trends for Automotive Lidar and Perception Systems. IEEE Signal Processing Magazine, 37(4), 50–61.
- Rosique, F., Navarro, P. J., Fernández, C., & Padilla, A. (2019). A Systematic Review of Perception System and Simulators for Autonomous Vehicles Research. Sensors, 19(3), 648.
버전: 2026-04-11 v1.0