7.3 카메라 센서의 종류와 사양

7.3 카메라 센서의 종류와 사양

자율주행 시스템에서 사용되는 카메라는 광학 구성, 화각, 설치 위치, 그리고 인지 과제의 특성에 따라 다양한 종류로 분류된다. 각 카메라 유형은 고유한 장점과 적용 범위를 가지며, 자율주행의 요구사항을 충족하기 위하여 복수의 카메라를 조합하여 사용하는 것이 일반적이다. 본 절에서는 자율주행에서 사용되는 주요 카메라 유형과 그 사양을 기술한다.

1. 카메라의 분류

1.1 렌즈 수에 따른 분류

1.1.1 단안 카메라(Monocular Camera)

단안 카메라는 단일 렌즈와 이미지 센서로 구성되며, 2차원 영상을 출력한다. 구조가 단순하고 원가가 낮으며, 현재 자율주행 시스템에서 가장 널리 사용되는 카메라 유형이다.

단안 카메라의 근본적 한계는 단일 영상으로부터 깊이(depth) 정보를 직접 획득할 수 없다는 것이다. 3차원 공간의 점이 2차원 영상으로 투영되는 과정에서 깊이 정보가 소실되며, 이를 복원하기 위해서는 심층 학습 기반 단안 깊이 추정(monocular depth estimation)이나 운동으로부터의 구조 복원(Structure from Motion, SfM) 등의 기법이 필요하다.

그러나 도로면 위의 객체에 대해서는 카메라의 설치 높이와 자세(pitch angle)를 기반으로 기하학적 관계에서 대략적인 거리를 추정할 수 있다. 카메라의 설치 높이를 h, 영상에서 객체의 하단 위치에 대응하는 시선 각도를 \alpha라 하면, 물체까지의 수평 거리 d는 다음과 같이 근사된다.

d \approx \frac{h}{\tan(\alpha)}

1.1.2 스테레오 카메라(Stereo Camera)

스테레오 카메라는 일정한 기선 거리(baseline) b만큼 수평으로 이격된 두 대의 카메라로 구성된다. 동일한 장면을 두 시점에서 촬영하고, 대응점 간의 시차(disparity) d_{disp}를 산출하여 깊이를 추정한다.

Z = \frac{f \cdot b}{d_{disp}}

여기서 Z는 깊이(대상까지의 거리), f는 초점 거리(픽셀 단위), b는 기선 거리, d_{disp}는 좌우 영상 간의 시차(픽셀 단위)이다.

스테레오 카메라의 깊이 추정 정확도는 기선 거리와 시차 정확도에 의존한다. 깊이 추정의 오차 \Delta Z는 다음과 같이 근사된다.

\Delta Z \approx \frac{Z^2}{f \cdot b} \Delta d_{disp}

이 관계에서 알 수 있듯이, 깊이 오차는 거리의 제곱에 비례하여 증가하므로, 스테레오 카메라의 정밀한 깊이 추정은 주로 근거리~중거리(0~50 m)에서 유효하다.

특성단안 카메라스테레오 카메라
깊이 측정간접 (알고리즘 의존)직접 (시차 기반)
구조 복잡도낮음중간
원가낮음중간
연산 비용낮음 (깊이 미사용 시)높음 (시차 산출)
유효 깊이 범위근거리~중거리

1.2 화각에 따른 분류

카메라의 화각(Field of View, FoV)은 렌즈의 초점 거리와 이미지 센서의 크기에 의하여 결정된다. 수평 화각 \theta_{FoV}는 다음과 같이 산출된다.

\theta_{FoV} = 2 \arctan\left(\frac{w}{2 f}\right)

여기서 w는 이미지 센서의 수평 크기, f는 초점 거리이다.

1.2.1 협각 카메라(Narrow FoV Camera)

협각 카메라(또는 텔레포토 카메라)는 수평 화각이 약 20°~40° 범위이며, 긴 초점 거리를 가진다. 원거리 객체를 높은 해상도로 촬영할 수 있으므로, 고속도로에서의 전방 원거리 차량, 교통 표지판, 신호등 인식에 적합하다. 그러나 좁은 화각으로 인하여 커버리지가 제한적이다.

1.2.2 표준 화각 카메라(Standard FoV Camera)

수평 화각이 약 50°~80° 범위인 카메라로, 전방 인지의 주력 카메라로 사용된다. 적절한 해상도와 화각의 균형을 제공하며, 객체 검출과 차선 인식에 광범위하게 활용된다.

1.2.3 광각 카메라(Wide FoV Camera)

수평 화각이 약 100°~120° 범위인 카메라로, 교차로, 도심 주행 등에서 넓은 시야를 확보하기 위하여 사용된다.

1.2.4 어안 카메라(Fisheye Camera)

어안 렌즈를 장착한 카메라로, 수평 화각이 약 180°~190°에 달한다. 극도로 넓은 시야를 제공하지만, 영상의 주변부에서 심한 방사 왜곡이 발생한다. 주로 서라운드 뷰 시스템과 저속 주차 보조에 사용된다.

어안 카메라의 투영 모델은 일반적인 핀홀 모델과 상이하며, 등거리 투영(equidistant projection), 등면적 투영(equisolid angle projection), 정사 투영(orthographic projection) 등의 비선형 모델이 사용된다. 등거리 투영 모델은 다음과 같다.

r = f \cdot \theta

여기서 r은 영상 중심으로부터의 반경, \theta는 입사각(광축과 입사광 사이의 각도)이다.

유형수평 화각주요 용도
협각 (텔레포토)20°~40°전방 원거리 인지, 표지판 판독
표준50°~80°전방 주력 인지
광각100°~120°교차로, 측면 인지
어안180°~190°서라운드 뷰, 주차

2. 자율주행용 카메라의 주요 사양 항목

자율주행용 카메라의 성능을 결정하는 주요 사양 항목은 다음과 같다.

2.1 해상도(Resolution)

영상의 해상도는 수평 및 수직 픽셀 수로 표현된다. 자율주행에서 일반적으로 사용되는 해상도 범위는 다음과 같다.

해상도 등급픽셀 수적용
HD (720p)1280 \times 720보조 카메라, 후방
Full HD (1080p)1920 \times 1080전방 주력 카메라
2K/QHD2560 \times 1440고정밀 인지
4K (2160p)3840 \times 2160원거리 인지, 고해상도 요구 시

해상도가 높을수록 원거리 객체의 검출 성능이 향상되지만, 데이터 전송 대역폭과 처리 연산량이 비례하여 증가한다.

2.2 프레임률(Frame Rate)

초당 촬영 영상 수로, 단위는 fps(frames per second)이다. 자율주행에서는 일반적으로 30~60 fps가 사용된다. 고속 주행에서는 높은 프레임률이 빠르게 변화하는 환경의 포착에 유리하다.

2.3 동적 범위(Dynamic Range)

동적 범위는 이미지 센서가 동시에 표현할 수 있는 최대 밝기와 최소 밝기의 비율로, 단위는 dB이다.

DR = 20 \log_{10}\left(\frac{I_{\max}}{I_{\min}}\right) \quad [\text{dB}]

자율주행 환경에서의 동적 범위 요구사항은 다음과 같다.

환경요구 동적 범위
일반 주행60~80 dB
터널 진입/퇴출100~120 dB
야간 + 대향 차량 전조등120~140 dB

2.4 셔터 유형

유형동작 방식자율주행 적합성
롤링 셔터(Rolling Shutter)행 단위 순차 노출고속 이동 물체 왜곡 발생
글로벌 셔터(Global Shutter)전 픽셀 동시 노출왜곡 없음, 센서 융합에 유리

글로벌 셔터는 LiDAR 점군과의 시간 정합이 용이하므로 센서 융합 정확도가 향상되며, 자율주행용 카메라에서 선호된다.

3. 다중 카메라 시스템 구성

자율주행 차량은 전방위 커버리지를 확보하기 위하여 복수의 카메라를 조합한 다중 카메라 시스템을 구성한다. 대표적인 구성은 다음과 같다.

설치 위치수량화각 유형주요 역할
전방 (윈드실드 상부)1~3협각 + 표준 + 광각전방 인지, 차선 검출, 신호등 인식
전방 좌/우 코너2광각교차로 좌우 시야 확보
측면 (사이드 미러 위치)2광각차선 변경, 사각지대
후방1광각~어안후방 인지, 주차
하부 전방/후방2~4어안서라운드 뷰, 근접 장애물

nuScenes 데이터셋(Caesar et al., 2020)의 센서 구성은 6대의 카메라로 360° 서라운드 뷰를 구성한 사례이며, Waymo Open Dataset(Sun et al., 2020)은 5대의 카메라(전방 3대 + 측면 2대)를 사용한다.

4. 카메라의 인터페이스 표준

자율주행용 카메라와 처리 장치 사이의 영상 데이터 전송에 사용되는 주요 인터페이스 표준은 다음과 같다.

인터페이스최대 대역폭전송 거리특성
MIPI CSI-2~6 Gbps짧음 (~0.3 m)임베디드 시스템용, 저전력
GMSL/GMSL23~6 Gbps최대 15 m차량용 장거리 직렬 링크, Maxim/ADI
GigE Vision1~10 Gbps최대 100 m산업용 표준, 이더넷 기반
USB 3.0~5 Gbps짧음 (~3 m)개발/시험용

자율주행 양산 시스템에서는 GMSL2가 가장 널리 사용되며, 카메라와 처리 장치 사이의 동축 케이블(coaxial cable)을 통한 직렬 전송을 지원한다.


참고문헌

  • Caesar, H., Bankiti, V., Lang, A. H., Vora, S., Liong, V. E., Xu, Q., … & Beijbom, O. (2020). nuScenes: A Multimodal Dataset for Autonomous Driving. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 11621–11631.
  • Sun, P., Kretzschmar, H., Dotiwalla, X., Chouard, A., Patnaik, V., Tsui, P., … & Anguelov, D. (2020). Scalability in Perception for Autonomous Driving: Waymo Open Dataset. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2446–2454.
  • Hartley, R., & Zisserman, A. (2004). Multiple View Geometry in Computer Vision (2nd ed.). Cambridge University Press.

버전: 2026-04-11 v1.0