1.8 자율주행 기술의 현황과 과제

1.8 자율주행 기술의 현황과 과제

1. 기술 현황

1.1 상용화 현황

2025년 현재 자율주행 기술의 상용화는 Level 2(부분 자동화)와 Level 4(고도 자동화)의 두 축을 중심으로 진행되고 있다. Level 3(조건부 자동화)의 상용화 사례는 제한적이며, Level 5(완전 자동화)는 아직 실현되지 않았다.

Level 2 시스템은 가장 광범위하게 보급되어 있다. Tesla의 Autopilot, GM의 Super Cruise, Mercedes-Benz의 Drive Pilot(Level 3 인증 포함), Hyundai/Kia의 Highway Driving Assist 등이 대표적이다. 이들 시스템은 고속도로 환경에서 조향과 가감속을 동시에 보조하나, 운전자의 지속적인 주행 환경 감시가 필수적으로 요구된다.

Level 3 시스템의 상용화는 제한적이다. Mercedes-Benz는 2021년 독일에서 Level 3 인증을 취득한 DRIVE PILOT을 출시하였으며, 이는 고속도로에서 시속 60km 이하의 교통 정체 상황에서 운전자의 주행 환경 감시 의무를 면제하는 시스템이다(Mercedes-Benz, 2022). Honda는 2021년 Level 3 기능을 탑재한 Legend을 일본에서 한정 출시하였다.

Level 4 시스템은 로보택시 및 자율주행 셔틀의 형태로 특정 지역에서 상용 서비스를 제공하고 있다. Waymo는 미국 피닉스, 샌프란시스코, 로스앤젤레스에서 완전 무인 로보택시 서비스를 운영 중이며(Waymo, 2024), 중국 Baidu의 Apollo Go는 베이징, 우한 등 다수 도시에서 서비스를 확대하고 있다.

1.2 기술 발전 동향

최근 자율주행 기술 연구의 주요 동향은 다음과 같이 요약된다.

종단간 자율주행의 부상: 트랜스포머 아키텍처의 발전과 대규모 데이터 학습 기법의 진보에 힘입어 종단간 자율주행 연구가 활발히 진행되고 있다. UniAD(Hu et al., 2023)는 인지, 예측, 판단을 단일 트랜스포머 프레임워크에서 통합적으로 처리하는 아키텍처를 제안하였다. Tesla는 2024년 FSD(Full Self-Driving) v12에서 종단간 신경망 기반 접근법으로 전환하였다고 발표하였다.

비전 중심 인지 시스템: 고비용 라이다 센서에 대한 의존도를 줄이기 위한 카메라 중심(Camera-Only) 인지 시스템의 연구가 활발하다. BEVFormer(Li et al., 2022)는 다중 카메라 영상으로부터 BEV(Bird’s Eye View) 표현을 생성하는 트랜스포머 기반 아키텍처를 제안하였으며, 이는 카메라 기반 3D 객체 검출 및 지도 구성의 성능을 크게 향상시켰다.

세계 모델(World Model) 기반 자율주행: 대규모 생성 모델을 이용하여 주행 환경의 미래 상태를 예측하는 세계 모델 기반 접근법이 연구되고 있다. GAIA-1(Hu et al., 2023b)은 비디오 생성 모델을 이용하여 주행 장면의 미래 프레임을 예측하는 세계 모델을 제안하였다. 세계 모델은 시뮬레이션 데이터 생성, 계획 수립 시의 미래 예측 등에 활용될 수 있다.

기초 모델(Foundation Model)의 활용: 대규모 사전 학습된 기초 모델을 자율주행에 적용하는 연구가 증가하고 있다. 비전-언어 모델(VLM)을 활용하여 주행 장면에 대한 자연어 기반 추론을 수행하거나, 주행 의사결정에 상식적 지식(Common-Sense Knowledge)을 반영하는 연구가 진행되고 있다.

2. 기술적 과제

2.1 장기 꼬리 분포 문제 (Long-Tail Distribution Problem)

자율주행 시스템이 실제 주행에서 마주치는 시나리오의 분포는 극도로 편향된 장기 꼬리(Long-Tail) 분포를 따른다. 일상적인 주행 시나리오가 대부분을 차지하며, 사고를 유발할 수 있는 희귀 상황(Corner Case)은 극히 낮은 확률로 발생한다. 그러나 이러한 희귀 상황에서의 안전한 대응이 자율주행 시스템의 신뢰성을 결정한다.

장기 꼬리 문제의 핵심적인 어려움은 다음과 같다.

  • 데이터 수집의 비효율성: 희귀 상황의 데이터는 대규모 주행 데이터 수집으로도 충분히 확보되지 않는다. RAND Corporation의 분석에 따르면, 자율주행 시스템이 인간 운전자보다 안전하다는 것을 통계적으로 입증하기 위해서는 수십억 마일의 주행 데이터가 필요하다(Kalra & Paddock, 2016).
  • 일반화의 한계: 학습 데이터에 포함되지 않은 시나리오에 대한 신경망의 일반화 능력은 보장되지 않는다.
  • 시뮬레이션의 현실 격차(Sim-to-Real Gap): 시뮬레이션을 통해 희귀 상황을 생성할 수 있으나, 시뮬레이션 환경과 실제 환경 사이의 차이가 학습된 정책의 실제 적용 가능성을 제한한다.

2.2 악천후 및 열악한 환경 조건

강우, 강설, 안개, 역광, 야간 등의 열악한 환경 조건은 센서 성능을 저하시키며, 이는 인지 모듈의 정확도에 직접적인 영향을 미친다. 카메라는 강한 역광이나 야간 조건에서 영상 품질이 저하되고, 라이다는 강우나 강설 시 포인트 클라우드에 잡음(Noise)이 증가한다. 레이더는 기상 조건에 상대적으로 강건하나, 공간 해상도가 낮다는 한계가 있다.

이러한 문제를 완화하기 위해 다중 센서 융합, 도메인 적응(Domain Adaptation), 열화 영상 복원(Degraded Image Restoration) 등의 기법이 연구되고 있다.

2.3 안전성 검증 문제

자율주행 시스템의 안전성을 정량적으로 검증하는 것은 현재 가장 핵심적인 과제 중 하나이다. 주요 어려움은 다음과 같다.

  • 검증 범위의 무한성: 실제 주행에서 발생할 수 있는 시나리오의 조합은 사실상 무한하며, 모든 시나리오에 대한 검증은 불가능하다.
  • 심층 학습 모델의 검증 어려움: 신경망 기반 시스템은 입력 공간이 고차원적이고 내부 의사결정 과정이 불투명하여 전통적인 소프트웨어 검증 기법의 적용이 제한적이다.
  • 안전 지표의 부재: 자율주행 시스템의 안전 수준을 정량적으로 평가하기 위한 표준화된 지표와 방법론이 아직 확립되지 않았다.

이에 대한 접근법으로 시나리오 기반 테스트(Scenario-Based Testing), 형식 검증(Formal Verification), 시뮬레이션 기반 검증, 그리고 안전성 논증(Safety Case) 프레임워크 등이 연구되고 있다(Koopman & Wagner, 2016).

2.4 확장성 문제 (Scalability)

자율주행 시스템의 운용 설계 영역을 확대하는 것은 기술적, 경제적 관점에서 중요한 과제이다. 현재 Level 4 로보택시 서비스는 특정 도시의 제한된 지역에서만 운영되며, 새로운 도시나 지역으로 확장하기 위해서는 고정밀 지도 구축, 현지 교통 법규 적용, 지역 특유의 주행 패턴 학습 등 상당한 추가 작업이 필요하다.

이러한 확장성 문제를 해결하기 위해 고정밀 지도에 대한 의존도를 줄이는 맵리스(Mapless) 자율주행, 소수 데이터로도 새로운 환경에 적응할 수 있는 전이 학습(Transfer Learning) 및 메타 학습(Meta-Learning) 기법이 연구되고 있다.

2.5 사회적 수용과 법제도적 과제

자율주행 기술의 상용화를 위해서는 기술적 완성도 외에도 사회적 수용성과 법제도적 환경의 정비가 필요하다.

  • 법적 책임 소재: 자율주행 차량이 사고를 유발한 경우 법적 책임이 차량 소유자, 제조사, 소프트웨어 개발사 중 누구에게 귀속되는지에 대한 법적 프레임워크가 필요하다.
  • 윤리적 의사결정: 불가피한 사고 상황에서 자율주행 시스템이 어떤 윤리적 기준에 따라 의사결정을 해야 하는지에 대한 사회적 합의가 요구된다.
  • 데이터 프라이버시: 자율주행 차량이 수집하는 대규모 영상 및 위치 데이터의 프라이버시 보호 문제가 존재한다.
  • 사이버 보안: 자율주행 시스템에 대한 사이버 공격(센서 스푸핑, 통신 교란 등)에 대한 방어 체계의 필요성이 제기된다.

3. 참고 문헌

  • Hu, Y., Yang, J., Chen, L., Li, K., Sima, C., Zhu, X., … & Li, H. (2023). Planning-oriented autonomous driving. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 17853–17862.
  • Hu, A., Russell, L., Yeo, H., Muber, Z., Fedoseev, G., Sherwin, A., … & Mayol-Cuevas, W. (2023b). GAIA-1: A generative world model for autonomous driving. arXiv preprint arXiv:2309.17080.
  • Kalra, N., & Paddock, S. M. (2016). Driving to safety: How many miles of driving would it take to demonstrate autonomous vehicle reliability? Transportation Research Part A: Policy and Practice, 94, 182–193.
  • Koopman, P., & Wagner, M. (2016). Challenges in autonomous vehicle testing and validation. SAE International Journal of Transportation Safety, 4(1), 15–24.
  • Li, Z., Wang, W., Li, H., Xie, E., Sima, C., Lu, T., … & Dai, J. (2022). BEVFormer: Learning bird’s-eye-view representation from multi-camera images via spatiotemporal transformers. Proceedings of the European Conference on Computer Vision (ECCV), 1–18.
  • Mercedes-Benz. (2022). DRIVE PILOT: The world’s first internationally certified Level 3 system.
  • Waymo. (2024). Waymo safety report.

v1.0