Booil Jung

HKU-MaRS의 MLCC(Multiple LiDARs and Cameras extrinsic Calibration)에 대한 심층 고찰

자율주행 자동차, 로봇, 무인 항공기 등 현대 지능형 시스템의 핵심은 주변 환경을 정확하게 인식하는 능력에 있다. 이를 위해 단일 센서의 한계를 극복하고 강건성과 정밀도를 높이고자 상호 보완적인 특성을 지닌 여러 종류의 센서를 함께 사용하는 센서 융합(Sensor Fusion) 기술이 필수적으로 요구된다. 특히, 3차원 공간 구조 정보를 정밀하게 측정하는 LiDAR(Light Detection and Ranging)와 풍부한 색상 및 텍스처 정보를 제공하는 카메라는 가장 대표적인 조합으로, 이 둘의 데이터를 융합함으로써 시스템은 기하학적 정보와 의미론적 정보를 동시에 파악할 수 있게 된다.1

이러한 센서 융합이 성공적으로 이루어지기 위한 가장 근본적인 전제 조건은 바로 ‘외재적 캘리브레이션(Extrinsic Calibration)’이다. 외재적 캘리브레이션이란, 각기 다른 센서가 자신의 고유한 좌표계를 기준으로 데이터를 수집할 때, 이들 좌표계 간의 상대적인 위치(translation)와 회전(rotation) 관계, 즉 강체 변환(rigid-body transformation)을 정확하게 추정하는 과정을 의미한다. 이 변환 행렬을 알아야만 서로 다른 센서로부터 들어온 데이터를 하나의 통일된 좌표계로 정렬하여 의미 있는 정보로 결합할 수 있다. 따라서 정밀한 외재적 캘리브레이션은 전체 인식 파이프라인의 성능을 좌우하는 ‘초석(cornerstone)’과 같은 역할을 한다.5 만약 캘리브레이션에 미세한 오차라도 존재한다면, 이는 장애물의 위치를 잘못 인식하거나 주변 환경을 왜곡하여 해석하는 심각한 결과로 이어질 수 있으며, 궁극적으로는 시스템의 안전성을 치명적으로 위협하게 된다.5

다수의 LiDAR와 카메라로 구성된 현대적인 센서 시스템은 그 복잡성으로 인해 캘리브레이션 과정에서 여러 가지 기술적 난제에 직면한다.

첫째, 비중첩 또는 최소한의 시야(Non-overlapping or Minimal Field-of-View, FoV) 문제이다. 과거에는 360도 회전하는 기계식 LiDAR가 주로 사용되어 다른 센서와의 시야각 중첩을 가정하기 용이했다. 그러나 최근에는 비용, 내구성, 크기 등의 이점으로 인해 제한된 시야각을 갖는 고정형(Solid-state) LiDAR가 여러 대 장착되는 추세이다.8 이러한 구성에서는 센서 간 시야가 전혀 겹치지 않는 경우가 흔히 발생하여, 두 센서에서 동시에 관측되는 공통 특징점을 찾아 정합하는 전통적인 캘리브레이션 방식의 적용이 근본적으로 불가능해진다.10 홍콩 과학기술대학교 MaRS 연구소(HKU-MaRS)의 MLCC는 바로 이 문제를 해결하는 것을 주요 목표 중 하나로 삼는다.8

둘째, 데이터 비동기성(Asynchronicity) 문제이다. 시스템에 장착된 여러 센서는 하드웨어적으로 완벽하게 동기화되지 않는 한, 각기 다른 시점에 데이터를 획득한다. 특히 센서의 움직임을 기반으로 캘리브레이션을 수행하는 동작 기반(Motion-based) 방법에서 이러한 시간 불일치는 오차 누적의 주된 원인이 되어 캘리브레이션의 정밀도를 저하시킨다.12

셋째, 데이터 이질성(Heterogeneity) 문제이다. LiDAR가 제공하는 3차원 희소 포인트 클라우드(sparse point cloud)와 카메라가 제공하는 2차원 조밀 픽셀(dense pixels) 데이터는 그 양식, 해상도, 노이즈 특성이 근본적으로 다르다.5 이처럼 서로 다른 모달리티(modality)의 데이터로부터 신뢰할 수 있는 공통 특징(correspondence)을 추출하고 정합하는 것은 캘리브레이션 과정에서 가장 어렵고 핵심적인 과제이다.

이러한 도전 과제들을 해결하기 위한 캘리브레이션 방법론은 크게 두 가지 패러다임으로 나눌 수 있다.

타겟 기반(Target-based) 방식은 체커보드(checkerboard), ChArUco 보드, 또는 특정 패턴이 인쇄된 평면 보드와 같은 인공적인 ‘타겟’을 사용한다.2 이 방식은 타겟의 기하학적 정보를 사전에 정확히 알고 있으므로, 각 센서 데이터에서 타겟의 특징(코너, 평면 등)을 검출하여 명확한 대응 관계를 수립할 수 있다. 그 결과, 매우 높은 정확도와 재현성을 확보할 수 있다는 장점이 있다. 하지만, 이는 조명이 일정하고 반사되는 물체가 없는 통제된 환경을 요구하며, 타겟을 설치하고 촬영하는 과정에 많은 수동적 개입이 필요하다.7 이러한 제약은 대규모 센서 시스템을 캘리브레이션하거나, 진동이나 온도 변화로 인해 센서의 정렬이 틀어졌을 때 현장에서 신속하게 재캘리브레이션하는 것을 거의 불가능하게 만든다. 이는 단순한 불편함을 넘어, 자율 시스템의 대규모 상용화와 지속적인 운영에 있어 시스템적인 장벽으로 작용한다.7

타겟리스(Targetless) 방식은 이러한 한계를 극복하기 위해 등장했다. 이 방식은 인공적인 타겟 대신, 주변 환경에 자연적으로 존재하는 특징들, 예를 들어 건물의 평면, 벽과 바닥이 만나는 모서리(에지), 코너 등을 활용한다.4 별도의 장비나 통제된 환경 없이, 시스템이 작동하는 실제 환경에서 캘리브레이션을 수행할 수 있으므로 온라인(online) 또는 현장(in-field) 캘리브레이션에 매우 적합하며, 확장성과 편의성이 뛰어나다. MLCC는 바로 이 타겟리스 패러다임에 속하며, 그중에서도 센서 플랫폼의 ‘동작(motion)’을 통해 시야가 겹치지 않는 센서들 간의 공통 관측 정보를 인위적으로 생성하는 독창적인 접근법을 취한다.11 이러한 접근 방식의 전환은 단순한 기술적 호기심이 아닌, 실제 현장에서의 운영 및 경제적 요구에 부응하기 위한 필연적인 진화 과정이라 할 수 있다.

HKU-MaRS의 MLCC(Multiple LiDARs and Cameras extrinsic Calibration)는 다중 센서, 특히 비중첩 시야각(non-overlapping FoV)을 갖는 센서 시스템의 외재적 캘리브레이션을 위해 설계된 타겟리스(targetless) 프레임워크이다. 이 방법론의 핵심은 정교하게 설계된 2단계 파이프라인과 효율적인 최적화 기법에 있다.

MLCC 방법론의 근간을 이루는 철학은 ‘동작을 통한 공통 특징 생성(Creating Co-visible Features through Motion)’이다. 전통적인 타겟리스 방법들은 센서들 간에 공통으로 관측되는 영역이 존재한다고 가정하지만, 다수의 소형 FoV 고정형 LiDAR를 사용하는 최신 시스템에서는 이러한 가정이 성립하지 않는다.8 MLCC는 이 문제를 해결하기 위해, 센서 플랫폼 자체에 의도적인 움직임, 특히 회전 운동을 가한다.10 이 움직임을 통해 시야가 전혀 겹치지 않던 센서들이 시간차를 두고 동일한 공간 영역을 스캔하게 되며, 결과적으로 시공간적인 공통 관측 정보(spatiotemporal co-visible features)가 생성된다. 이 접근법은 특정 센서 배치에 구애받지 않고 하드웨어 구성의 유연성을 극대화하며, 다양한 종류의 LiDAR와 카메라 조합에 효과적으로 적용될 수 있다.8

MLCC는 복잡한 다중 센서 캘리브레이션 문제를 보다 다루기 쉬운 두 개의 하위 문제로 분리하는 ‘분할 정복(divide and conquer)’ 전략을 채택한다. 이는 단일 모달리티(LiDAR-LiDAR) 문제를 먼저 해결하여 고품질의 3D 참조 모델을 구축하고, 이를 기반으로 더 어려운 교차 모달리티(LiDAR-Camera) 문제를 푸는 방식으로, 전체 프로세스의 안정성과 강건성을 높인다.

캘리브레이션의 첫 번째 단계는 시스템에 장착된 모든 LiDAR 센서 간의 상대적인 기하학적 관계를 정립하는 것이다.

  1. 문제 정식화: 여러 LiDAR 중 하나를 기준(base) LiDAR로 설정한다. 그 후, 다른 모든 LiDAR의 기준 LiDAR에 대한 상대적 변환 행렬(외재적 파라미터) $E_L$과, 데이터 수집 동안의 기준 LiDAR의 궤적 $S$를 동시에 최적화하는 문제로 정식화한다.11

  2. LiDAR 번들 조정(Bundle Adjustment, BA): 이 최적화 문제는 SLAM(Simultaneous Localization and Mapping) 분야에서 맵의 전역적 일관성을 확보하기 위해 사용되는 번들 조정(BA) 기법을 캘리브레이션에 적용한 것이다.8 핵심 아이디어는, 모든 LiDAR로부터 수집된 포인트 클라우드를 현재 추정된 궤적

    $S$와 외재적 파라미터 $E_L$을 이용해 하나의 전역 맵으로 정합했을 때, 이 맵의 기하학적 일관성(consistency)이 최대가 되도록 하는 $S$와 $E_L$을 찾는 것이다.11 이 일관성은 주로 환경에 존재하는 평면(plane) 특징들이 얼마나 잘 정렬되는지로 측정된다.

LiDAR 간의 관계가 정립되면, 다음 단계는 이 LiDAR 시스템 전체와 각 카메라 간의 외재적 파라미터를 찾는 것이다.

  1. 고품질 3D 맵 생성: 1단계에서 최적화된 LiDAR 궤적 $S^$와 LiDAR 간 외재적 파라미터 $E_L^$를 사용하여, 모든 LiDAR의 포인트 클라우드를 하나의 좌표계로 통합한다. 이를 통해 매우 정밀하고 밀도 높은 전역 3D 포인트 클라우드 맵이 생성된다.11 이 맵은 2단계 캘리브레이션을 위한 안정적인 ‘가상 타겟(virtual target)’ 역할을 한다.
  2. 교차 모달리티 특징 정합:
    • 3D 에지 추출: 생성된 고품질 3D 맵에서 기하학적 특징, 특히 인접한 두 평면이 만나는 경계선인 ‘깊이 연속 에지(depth-continuous edge)’를 추출한다. 이 에지는 조명 변화에 강건하고 명확한 3D 구조를 나타내므로 LiDAR-카메라 정합에 효과적이다.11
    • 2D 에지 추출: 각 카메라 이미지에서는 Canny 에지 검출기와 같은 표준 알고리즘을 사용하여 2D 에지 맵을 생성한다.11
    • 최적화: 3D 에지 포인트들을 현재 추정된 LiDAR-카메라 변환 행렬 $E_C$를 이용해 2D 이미지 평면에 투영한다. 그 후, 투영된 3D 에지 포인트와 가장 가까운 2D 에지 라인까지의 거리(point-to-edge distance)를 잔차(residual)로 정의하고, 이 잔차들의 제곱 합을 최소화하는 비선형 최적화를 수행하여 최적의 $E_C^*$를 찾는다.11

표 1: MLCC 핵심 특징 요약

특징 (Feature) 설명 (Description) 핵심 장점 (Key Advantage) 관련 자료 (Relevant Sources)
캘리브레이션 패러다임 타겟리스(Targetless), 동작 기반(Motion-based) 별도의 캘리브레이션 타겟이나 통제된 환경이 불필요하여 현장 적용성 및 편의성 극대화 11
핵심 해결 과제 비중첩 또는 최소 시야각(Non/Minimal FoV) 센서 시스템의 외재적 캘리브레이션 소형 FoV 고정형 LiDAR 등 다양한 센서 구성에 대한 높은 유연성 및 확장성 제공 8
핵심 기술 1 적응형 복셀화(Adaptive Voxelization) 포인트 클라우드를 동적으로 분할하여 평면 특징 추출 및 정합 과정의 계산 속도를 획기적으로 향상 8
핵심 기술 2 LiDAR 번들 조정(LiDAR Bundle Adjustment) SLAM의 전역 최적화 기법을 적용하여 LiDAR 궤적과 외재적 파라미터를 동시에 최적화함으로써 높은 정확도 달성 10
최종 산출물 LiDAR-LiDAR 및 LiDAR-Camera 쌍에 대한 외재적 변환 행렬(SE(3)) 다중 센서 데이터를 하나의 통일된 좌표계로 융합할 수 있는 기반 제공 11
구현 오픈소스 ROS 패키지 연구 및 개발 커뮤니티의 높은 접근성과 재현성, 폭넓은 활용 가능성 20

MLCC의 높은 성능과 효율성은 두 가지 핵심 기술, 즉 ‘적응형 복셀화’와 ‘2차 미분을 활용한 번들 조정 최적화’에 기반한다. 이 두 기술은 계산 효율성을 극대화하면서도 높은 정확도를 달성하기 위한 전략적 선택의 결과물이다.

타겟리스 캘리브레이션에서 가장 계산 비용이 많이 드는 부분 중 하나는 서로 다른 시점이나 다른 센서에서 얻은 포인트 클라우드 간의 대응점(correspondence)을 찾는 과정이다. MLCC는 이 문제를 해결하기 위해 ‘적응형 복셀화(Adaptive Voxelization)’라는 독창적인 공간 분할 기법을 도입했다.

적응형 복셀화를 통해 효율적으로 평면 특징과 그 대응 관계를 찾았다면, 다음은 이를 이용해 실제 외재적 파라미터를 추정하는 최적화 단계이다.

MLCC의 유효성은 관련 논문에서 제시된 정량적, 정성적 평가를 통해 입증되었다. 평가는 주로 캘리브레이션의 속도, 정확도, 그리고 다양한 조건 하에서의 강건성에 초점을 맞추고 있다.

MLCC의 가장 두드러진 성과는 계산 효율성의 극적인 향상이다.

MLCC 방법론의 일반화 가능성을 입증하기 위해, 연구는 다양한 조건 하에서 수행되었다.

MLCC의 가장 큰 장점 중 하나는 연구 결과를 실제 사용자가 활용할 수 있도록 오픈소스 코드로 공개했다는 점이다. 이는 학술적 기여를 넘어 커뮤니티의 기술 발전에 직접적으로 이바지하는 중요한 요소이다.

MLCC의 소스 코드는 GitHub 리포지토리(hku-mars/mlcc)를 통해 공개되어 있으며, 로봇 공학 분야의 표준 플랫폼인 ROS(Robot Operating System) 환경에서 동작하도록 개발되었다.20 이를 통해 전 세계의 연구자들과 개발자들이 손쉽게 코드를 다운로드하여 자신의 시스템에 적용하고 검증하며, 나아가 개선에 기여할 수 있는 생태계가 구축되었다. 라이선스는 GPLv2를 따르며, 상업적 활용을 위해서는 연구 책임자에게 별도의 문의가 필요하다고 명시되어 있다.20

MLCC를 구동하기 위한 개발 환경과 의존성은 다음과 같다.

MLCC 패키지는 제공된 예제 데이터뿐만 아니라 사용자의 고유 데이터를 이용한 캘리브레이션을 지원한다.

이러한 요구사항들은 MLCC가 초심자를 위한 ‘플러그 앤 플레이’ 솔루션이라기보다는, 알고리즘의 원리를 이해하고 적절한 초기값을 제공할 수 있는 전문가를 위한 강력한 도구임을 시사한다. 특히 초기값 제공 요구는 비선형 최적화 기법이 좋은 시작점 없이는 지역 최적해(local minima)에 수렴하기 쉬운 수학적 특성에 기인하며, 이는 실제 사용 가이드가 알고리즘의 이론적 기반과 깊이 연결되어 있음을 보여준다.

MLCC는 타겟리스 캘리브레이션 분야에서 중요한 진전을 이루었지만, 모든 기술과 마찬가지로 명확한 한계와 개선의 여지를 가지고 있다. 이러한 한계는 개발자 스스로 인지한 부분과 실제 사용자 커뮤니티를 통해 보고된 문제점, 그리고 방법론 자체에 내재된 근본적인 제약으로 나누어 살펴볼 수 있다.

개발팀은 GitHub 리포지토리의 ‘알려진 문제점(Known Issues)’ 섹션을 통해 한 가지 사용성의 문제를 명시적으로 언급했다. 다중 LiDAR 캘리브레이션 과정이 현재 디버깅 목적으로 3개의 개별적인 단계로 나뉘어 있어, 사용자가 여러 번의 roslaunch 명령을 실행해야 하는 번거로움이 있다는 점이다. 개발팀은 향후 릴리즈에서 이 단계들을 하나로 통합하여 사용 편의성을 개선할 계획이라고 밝혔다.20

오픈소스 프로젝트의 진정한 가치는 사용자 커뮤니티의 피드백을 통해 그 실제적인 강점과 약점이 드러나는 데 있다. MLCC의 GitHub ‘Issues’ 탭에는 알고리즘의 이론적 한계가 실제 사용 환경에서 어떻게 발현되는지를 보여주는 중요한 보고들이 존재한다.

사용자들이 보고한 문제들 외에도, MLCC의 방법론 자체에는 다음과 같은 근본적인 한계가 존재한다.

결론적으로, GitHub 이슈들은 단순한 버그 리포트가 아니라, MLCC가 가진 이론적 가정들이 실제 세계의 다양성과 불확실성을 만났을 때 발생하는 문제점들을 보여주는 귀중한 자료이다. 따라서 MLCC에 대한 비판적 고찰은 이러한 실제적 실패 사례들을 그 이론적 근원과 연결하여 분석하는 데서 출발해야 한다.

MLCC는 2021년에서 2022년 사이에 발표된 연구로서, 비중첩 FoV 문제를 해결하고 타겟리스 캘리브레이션의 속도를 획기적으로 개선한 중요한 기술적 성취이다.8 하지만 기술의 발전 속도는 매우 빠르며, MLCC가 발표된 이후 IMU와 딥러닝 기술이 캘리브레이션 분야에 본격적으로 도입되면서 새로운 패러다임이 등장했다. 따라서 MLCC의 현재 위치를 정확히 파악하기 위해서는 이러한 최신 기술 동향과의 비교 분석이 필수적이다. MLCC는 ‘기하학 기반 방법론의 정점’에 위치하면서도, 동시에 새로운 기술들이 해결하고자 하는 한계를 명확히 보여주는 과도기적 혁신으로 평가할 수 있다.

MLCC가 직면한 동작 모델링의 한계와 데이터 비동기성 문제를 해결하기 위한 가장 강력한 대안은 IMU(Inertial Measurement Unit)를 통합하는 것이다.

MLCC가 기하학적 특징의 부재로 인해 어려움을 겪는 문제를 해결하기 위해, 딥러닝을 활용하는 접근법이 활발히 연구되고 있다.

각 캘리브레이션 패러다임은 고유의 장단점을 가지며, 이는 기술의 선택이 결국 해결하고자 하는 문제와 운영 환경에 따라 달라져야 함을 의미한다.


표 2: 주요 캘리브레이션 패러다임 비교 분석

패러다임 (Paradigm) 핵심 원리 (Core Principle) 장점 (Pros) 단점 (Cons) 대표 방법 (Example Method)
타겟 기반 인공적인 캘리브레이션 타겟의 알려진 기하학적 특징을 이용한 정합 높은 정확도, 높은 재현성, 명확한 성능 검증 수동 개입 필요, 통제된 환경 요구, 현장 적용 및 확장성 낮음 ChArUco-based methods 6
기하학 기반 타겟리스 환경의 자연적인 기하학적 특징(평면, 에지)과 센서의 움직임을 이용한 정합 타겟 불필요, 높은 편의성, 구조적 환경에서 높은 효율성 특징 부족 환경에서 실패, 초기 추정값에 민감, 동작 모델링의 정확성에 의존 MLCC 8
IMU 활용 연속 시간 IMU의 고주파 측정값과 연속 시간 궤적을 이용한 시공간적 정합 강건한 동작 추정, 센서 비동기 문제 해결, 시간 오프셋 캘리브레이션 가능 IMU 바이어스 및 노이즈에 민감, 추가적인 센서(IMU) 요구 arXiv:2501.02821 12
딥러닝 기반 학습된 특징 또는 객체 수준의 의미론적 정보를 이용한 정합 특징 부족 환경에서 강건, 높은 수준의 자동화, 초기값 불필요 가능 대규모 학습 데이터 필요, 학습되지 않은 환경/객체에 대한 일반화 성능 문제, 결과의 해석 어려움 CalibRefine 29, MFCalib 25

이러한 분석을 통해 볼 때, 캘리브레이션 기술의 미래는 어느 한 가지 방법론이 다른 것을 완전히 대체하기보다는, 각 방법론의 장점을 결합하는 하이브리드(hybrid) 형태로 나아갈 가능성이 높다. 예를 들어, IMU로 강건한 동작 사전 정보(motion prior)를 확보하고, 환경에 기하학적 특징이 풍부할 때는 MLCC와 같은 방법으로 정밀한 제약 조건을 추가하며, 특징이 부족한 구간에서는 딥러닝 기반의 객체 정합으로 보완하는 식의 통합 프레임워크를 구상할 수 있다. 이러한 관점에서 MLCC는 단독으로 사용될 때의 한계에도 불구하고, 그 핵심 기술인 적응형 복셀화 등은 미래의 하이브리드 시스템에서 중요한 모듈로 계속해서 활용될 수 있는 잠재력을 지니고 있다.

홍콩 과학기술대학교 MaRS 연구소에서 개발한 MLCC는 다중 센서 외재적 캘리브레이션 분야, 특히 타겟리스 방식의 발전에 있어 중요한 이정표를 제시한 연구이다. 본 고찰을 통해 확인된 MLCC의 핵심적인 학술적, 실용적 기여는 다음과 같이 요약할 수 있다.

첫째, MLCC는 센서 간 시야가 겹치지 않는(non-overlapping FoV) 현실적인 문제에 대한 효과적인 해결책을 제시했다. 의도적인 움직임을 통해 공통 관측 영역을 생성하는 접근법은 소형 고정형 LiDAR가 다수 사용되는 최신 자율 시스템의 하드웨어 구성에 높은 유연성을 부여했다.

둘째, ‘적응형 복셀화’와 ‘2차 미분을 활용한 번들 조정’이라는 두 가지 핵심 기술을 통해 타겟리스 캘리브레이션의 계산 효율성을 획기적으로 개선했다. 특히 LiDAR-LiDAR 캘리브레이션 속도를 15배 향상시킨 것은, 복잡한 최적화 문제의 병목 구간을 정확히 파악하고 이를 알고리즘 수준에서 해결한 뛰어난 성과이다.

셋째, 연구 결과를 ROS 패키지 형태의 오픈소스로 공개함으로써, 전 세계 연구 및 개발 커뮤니티가 해당 기술을 쉽게 활용하고 검증하며, 이를 기반으로 새로운 연구를 수행할 수 있는 토대를 마련했다.

물론, MLCC는 명확한 한계 또한 가지고 있다. 환경 내에 존재하는 평면이나 에지와 같은 기하학적 특징에 대한 강한 의존성은 비정형 환경에서의 적용을 어렵게 만들며, 비선형 최적화에 내재된 문제로 인해 사용자가 제공하는 초기 추정값에 결과가 민감하게 반응한다. 이러한 한계점들은 MLCC가 특정 조건 하에서 매우 강력한 도구이지만, 모든 상황에 적용 가능한 만능 해결책은 아님을 시사한다.

MLCC와 그 이후에 등장한 최신 기술 동향을 종합적으로 분석할 때, 미래의 타겟리스 캘리브레이션 기술은 다음과 같은 방향으로 발전할 것으로 전망된다.

결론적으로, MLCC는 기하학 기반 타겟리스 캘리브레이션 기술의 가능성과 한계를 동시에 보여준 중요한 연구이다. MLCC가 해결한 문제와 남긴 과제들은 이후 등장한 IMU 및 딥러닝 기반의 새로운 접근법들이 탄생하는 자양분이 되었으며, 이 모든 기술의 융합을 통해 자율 시스템의 ‘눈’은 더욱더 정확하고 신뢰할 수 있는 방향으로 진화해 나갈 것이다.

  1. What Is Lidar-Camera Calibration? - MATLAB & Simulink - MathWorks, accessed August 7, 2025, https://www.mathworks.com/help/lidar/ug/lidar-camera-calibration.html
  2. A Review of Deep Learning-Based LiDAR and Camera Extrinsic Calibration - PMC, accessed August 7, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11207430/
  3. Online Extrinsic Calibration on LiDAR-Camera System with LiDAR Intensity Attention and Structural Consistency Loss - MDPI, accessed August 7, 2025, https://www.mdpi.com/2072-4292/14/11/2525
  4. Automatic Targetless LiDAR-Camera Calibration: A Survey - ResearchGate, accessed August 7, 2025, https://www.researchgate.net/publication/363244175_Automatic_Targetless_LiDAR-Camera_Calibration_A_Survey
  5. A Target-based Multi-LiDAR Multi-Camera Extrinsic Calibration System - arXiv, accessed August 7, 2025, https://arxiv.org/html/2507.16621v1
  6. A Target-based Multi-LiDAR Multi-Camera Extrinsic Calibration System - arXiv, accessed August 7, 2025, http://arxiv.org/pdf/2507.16621
  7. How does multi-sensor calibration work in autonomous vehicles? - EE World Online, accessed August 7, 2025, https://www.eeworldonline.com/how-does-multi-sensor-calibration-work-in-autonomous-vehicles/
  8. Targetless Extrinsic Calibration of Multiple Small FoV LiDARs and Cameras Using Adaptive Voxelization Request PDF - ResearchGate, accessed August 7, 2025, https://www.researchgate.net/publication/360817362_Targetless_Extrinsic_Calibration_of_Multiple_Small_FoV_LiDARs_and_Cameras_Using_Adaptive_Voxelization
  9. Multi-LiCa: A Motion- and Targetless Multi - LiDAR-to-LiDAR Calibration Framework - arXiv, accessed August 7, 2025, https://arxiv.org/html/2501.11088v1
  10. Efficient and accurate LiDAR mapping : from extrinsic calibration to global optimization - HKU Scholars Hub, accessed August 7, 2025, https://hub.hku.hk/handle/10722/341601
  11. (PDF) Fast and Accurate Extrinsic Calibration for Multiple LiDARs …, accessed August 7, 2025, https://www.researchgate.net/publication/354597587_Fast_and_Accurate_Extrinsic_Calibration_for_Multiple_LiDARs_and_Cameras
  12. [2501.02821] Targetless Intrinsics and Extrinsic Calibration of Multiple LiDARs and Cameras with IMU using Continuous-Time Estimation - arXiv, accessed August 7, 2025, https://arxiv.org/abs/2501.02821
  13. Targetless Intrinsics and Extrinsic Calibration of Multiple LiDARs and Cameras with IMU using Continuous-Time Estimation - arXiv, accessed August 7, 2025, https://arxiv.org/html/2501.02821v1
  14. (PDF) A Target-based Multi-LiDAR Multi-Camera Extrinsic Calibration System, accessed August 7, 2025, https://www.researchgate.net/publication/393923560_A_Target-based_Multi-LiDAR_Multi-Camera_Extrinsic_Calibration_System
  15. [2507.16621] A Target-based Multi-LiDAR Multi-Camera Extrinsic Calibration System - arXiv, accessed August 7, 2025, https://arxiv.org/abs/2507.16621
  16. A Review of Deep Learning-Based LiDAR and Camera Extrinsic Calibration - MDPI, accessed August 7, 2025, https://www.mdpi.com/1424-8220/24/12/3878
  17. Automatic Targetless Monocular Camera and LiDAR External Parameter Calibration Method for Mobile Robots - MDPI, accessed August 7, 2025, https://www.mdpi.com/2072-4292/15/23/5560
  18. Adaptive Point-Line Fusion: A Targetless LiDAR–Camera Calibration Method with Scheme Selection for Autonomous Driving - PMC, accessed August 7, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10891561/
  19. Extrinsic Calibration of Multiple LiDARs of Small FoV in Targetless Environments Request PDF - ResearchGate, accessed August 7, 2025, https://www.researchgate.net/publication/349538566_Extrinsic_Calibration_of_Multiple_LiDARs_of_Small_FoV_in_Targetless_Environments
  20. hku-mars/mlcc: Fast and Accurate Extrinsic Calibration for Multiple LiDARs and Cameras - GitHub, accessed August 7, 2025, https://github.com/hku-mars/mlcc
  21. ZhaoXiaoyu/mlcc - Gitee, accessed August 7, 2025, https://gitee.com/zhaoxiaoyu001/mlcc?skip_mobile=true
  22. [2109.06550] Targetless Extrinsic Calibration of Multiple Small FoV LiDARs and Cameras using Adaptive Voxelization - arXiv, accessed August 7, 2025, https://arxiv.org/abs/2109.06550
  23. Issues / hku-mars/mlcc / GitHub, accessed August 7, 2025, https://github.com/hku-mars/mlcc/issues
  24. judge_eigen / Issue #19 / hku-mars/mlcc / GitHub, accessed August 7, 2025, https://github.com/hku-mars/mlcc/issues/19
  25. MFCalib: Single-shot and Automatic Extrinsic Calibration for LiDAR and Camera in Targetless Environments Based on Multi-Feature Edge Request PDF - ResearchGate, accessed August 7, 2025, https://www.researchgate.net/publication/383701021_MFCalib_Single-shot_and_Automatic_Extrinsic_Calibration_for_LiDAR_and_Camera_in_Targetless_Environments_Based_on_Multi-Feature_Edge
  26. MFCalib: Single-shot and Automatic Extrinsic Calibration for LiDAR and Camera in Targetless Environments Based on Multi-Feature Edge - arXiv, accessed August 7, 2025, https://arxiv.org/html/2409.00992v1
  27. [Literature Review] Targetless Intrinsics and Extrinsic Calibration of Multiple LiDARs and Cameras with IMU using Continuous-Time Estimation - Moonlight, accessed August 7, 2025, https://www.themoonlight.io/en/review/targetless-intrinsics-and-extrinsic-calibration-of-multiple-lidars-and-cameras-with-imu-using-continuous-time-estimation
  28. Targetless Intrinsics and Extrinsic Calibration of Multiple LiDARs and Cameras with IMU using Continuous-Time Estimation - ResearchGate, accessed August 7, 2025, https://www.researchgate.net/publication/387767088_Targetless_Intrinsics_and_Extrinsic_Calibration_of_Multiple_LiDARs_and_Cameras_with_IMU_using_Continuous-Time_Estimation
  29. Deep Learning-Based Online Automatic Targetless LiDAR–Camera Calibration with Iterative and Attention-Driven Post - arXiv, accessed August 7, 2025, https://arxiv.org/pdf/2502.17648?
  30. Deep Learning based Online Extrinsic Calibration of IMU and Monocular Camera Using Smartphone Devices Technical Program - IEEE/ION PLANS 2023, accessed August 7, 2025, https://www.ion.org/plans/abstracts.cfm?paperID=12035
  31. Deep Learning for Camera Calibration and Beyond: A Survey - arXiv, accessed August 7, 2025, https://arxiv.org/html/2303.10559v2
  32. CFNet: LiDAR-Camera Registration Using Calibration Flow Network - MDPI, accessed August 7, 2025, https://www.mdpi.com/1424-8220/21/23/8112
  33. CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR–Camera Calibration with Iterative and Attention-Driven Post-Refinement - arXiv, accessed August 7, 2025, https://arxiv.org/html/2502.17648v3
  34. Automatic Extrinsic Calibration of 3D LIDAR and Multi-Cameras Based on Graph Optimization - PMC, accessed August 7, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC8954836/
  35. [R] Deep Learning-Based Single Image Camera Calibration : r/MachineLearning - Reddit, accessed August 7, 2025, https://www.reddit.com/r/MachineLearning/comments/idnsm2/r_deep_learningbased_single_image_camera/
  36. [Literature Review] MFCalib: Single-shot and Automatic Extrinsic Calibration for LiDAR and Camera in Targetless Environments Based on Multi-Feature Edge - Moonlight, accessed August 7, 2025, https://www.themoonlight.io/en/review/mfcalib-single-shot-and-automatic-extrinsic-calibration-for-lidar-and-camera-in-targetless-environments-based-on-multi-feature-edge
  37. CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR–Camera Calibration with Iterative and Attention-Driven Post-Refinement - arXiv, accessed August 7, 2025, https://arxiv.org/html/2502.17648v4