Booil Jung

HKU MARS Lab의 FAST-Calib에 대한 비판적 분석

자율 주행 자동차, 로봇 공학, 3차원 장면 재구성 등 다양한 첨단 기술 분야에서 주변 환경을 정확하고 강건하게 인식하는 능력은 시스템의 성능과 안전성을 결정하는 핵심 요소입니다. 이를 위해 단일 센서의 한계를 극복하고 상호 보완적인 정보를 얻기 위해 여러 종류의 센서를 융합하는 다중 모드(multi-modal) 접근 방식이 표준으로 자리 잡았습니다. 특히, LiDAR(Light Detection and Ranging)와 카메라는 자율 시스템에서 가장 보편적으로 사용되는 센서 조합으로, 이 두 센서의 데이터를 효과적으로 융합하기 위한 전제 조건이 바로 ‘외재적 캘리브레이션(Extrinsic Calibration)’입니다.

LiDAR와 카메라는 각각 고유한 장점을 가지며, 서로의 단점을 보완하는 이상적인 관계를 형성합니다. LiDAR는 레이저 펄스를 사용하여 주변 환경까지의 거리를 매우 정밀하게 측정함으로써, 조명 조건에 관계없이 정확한 3차원 기하학적 정보를 담은 포인트 클라우드(point cloud)를 생성합니다.1 이는 장애물 감지, 지도 작성, 측위 등에서 핵심적인 역할을 합니다. 하지만 LiDAR 데이터는 본질적으로 희소(sparse)하고, 색상이나 질감과 같은 시각적 정보를 포함하지 않는다는 한계가 있습니다.3

반면, 카메라는 저렴한 비용으로 고해상도의 2차원 이미지를 제공하며, 여기에는 풍부한 색상, 질감, 그리고 딥러닝 모델을 통해 추출할 수 있는 의미론적(semantic) 정보가 담겨 있습니다.6 이는 객체 인식, 분류, 장면 이해에 필수적입니다. 그러나 카메라는 조명 변화에 민감하고, 이미지로부터 직접 3차원 깊이 정보를 얻는 것이 어렵다는 본질적인 제약을 가집니다.3

이 두 센서의 데이터를 융합하면, LiDAR의 정밀한 3차원 구조에 카메라의 풍부한 시각적 정보를 결합하여, 각 센서가 단독으로 제공할 수 있는 것보다 훨씬 더 완전하고 강건한 환경 인식이 가능해집니다. 예를 들어, LiDAR 포인트 클라우드에 카메라 이미지의 색상을 입혀 ‘컬러 포인트 클라우드(colored point cloud)’를 생성하면, 3차원 공간 내 객체의 형태와 시각적 특징을 동시에 파악할 수 있어 SLAM(Simultaneous Localization and Mapping)이나 3D 객체 감지 알고리즘의 성능을 크게 향상시킬 수 있습니다.2

LiDAR-카메라 데이터 융합의 핵심은 두 센서가 서로 다른 좌표계에서 데이터를 수집한다는 사실을 극복하는 것입니다. 외재적 캘리브레이션은 바로 이 문제를 해결하는 과정으로, 한 센서의 좌표계를 다른 센서의 좌표계로 변환하는 6자유도(6-DoF) 강체 변환(rigid body transformation) 행렬을 찾는 것을 목표로 합니다.8 이 변환 행렬은 3x3 회전 행렬(R)과 3x1 평행 이동 벡터(t)로 구성되며, LiDAR 좌표계의 한 점 PL을 카메라 좌표계의 점 PC로 변환하는 관계를 PC=R⋅PL+t 와 같이 수학적으로 정의합니다.2

이 외재적 파라미터(R,t)가 정확하게 추정되어야만, LiDAR 포인트 클라우드의 각 점을 카메라 이미지 평면에 정확하게 투영할 수 있으며, 이를 통해 두 데이터 스트림 간의 의미 있는 연관성을 찾고 융합할 수 있습니다. 만약 이 캘리브레이션에 작은 오차라도 존재한다면, 데이터 융합 과정에서 불일치가 발생하여 포인트 클라우드 색상화가 어긋나거나, SLAM 시스템의 데이터 연관(data association) 실패, 3D 객체 감지 성능 저하 등 심각한 문제를 야기할 수 있습니다. 따라서, 외재적 캘리브레이션의 정확도는 모든 후속 융합 기반 인식 알고리즘의 성능 상한선을 결정하는 매우 중요한 선행 단계라 할 수 있습니다.

LiDAR-카메라 외재적 캘리브레이션이 어려운 근본적인 이유는 두 가지 매우 이질적인 데이터 양식(modality) 사이에서 신뢰할 수 있는 대응 관계(correspondence)를 찾는 것이 어렵기 때문입니다.3 카메라는 조밀한 픽셀 그리드로 구성된 2차원 이미지를 생성하는 반면, LiDAR는 비정형적이고 희소한 3차원 포인트 클라우드를 생성합니다. 이 두 데이터 간의 해상도, 시야각(Field of View, FoV), 데이터 구조의 근본적인 차이는 대응점 탐색을 매우 도전적인 과제로 만듭니다.2 예를 들어, 이미지에서 쉽게 검출되는 체커보드의 모서리(corner)는 희소한 LiDAR 포인트 클라우드에서는 정확하게 특정하기 매우 어렵습니다. 이러한 본질적인 난제를 해결하기 위해 다양한 캘리브레이션 방법론이 제안되어 왔으며, FAST-Calib 역시 이러한 맥락에서 개발된 도구 중 하나입니다.

HKU MARS Lab의 FAST-Calib은 단순히 독립적인 유틸리티 소프트웨어로 평가될 수 없습니다. 이 도구의 진정한 가치와 전략적 중요성을 이해하기 위해서는, 홍콩대학교(HKU) 기계공학과 소속의 메카트로닉스 및 로봇 시스템 연구실(Mechatronics and Robotic Systems Laboratory, MARS Lab)이 구축해 온 “FAST”라는 이름의 고성능 SLAM 알고리즘 생태계 안에서 그 위치를 파악해야 합니다.11 FAST-Calib은 이 생태계의 성능을 극대화하고 접근성을 높이기 위해 전략적으로 개발된 필수 구성 요소입니다.

MARS Lab은 지난 몇 년간 로봇 공학, 특히 LiDAR 기반 SLAM 분야에서 세계적인 명성을 쌓아왔습니다. 이들의 연구는 ‘FAST’라는 브랜딩으로 대표되는 일련의 빠르고(Fast) 강건한(Robust) 알고리즘들을 통해 구체화되었습니다.

FAST-Calib과 “FAST” 생태계 간의 긴밀한 관계는 FAST-LIVO2의 공식 GitHub 저장소에서 명확하게 드러납니다. FAST-LIVO2 문서는 사용자들에게 FAST-Calib 툴킷 사용을 권장하며, “FAST-Calib의 출력 외재적 파라미터를 YAML 설정 파일에 직접 채워 넣을 수 있다”고 명시하고 있습니다.16 이는 두 프로젝트가 단지 같은 연구실에서 개발되었다는 사실을 넘어, 기능적으로 완벽하게 연동되도록 설계되었음을 보여주는 강력한 증거입니다. FAST-Calib은 FAST-LIVO2 시스템을 구동하기 위한 ‘공식’ 사전 준비 도구로서의 역할을 수행합니다.

세계 최고 수준의 SLAM 알고리즘을 개발하는 연구실이 왜 상대적으로 ‘기초적인’ 캘리브레이션 도구를 직접 개발하고 배포하는지에 대한 질문은 이 생태계의 전략을 이해하는 데 핵심적입니다. 그 이유는 SLAM 시스템의 성능이 전적으로 정확한 외재적 파라미터에 의존하기 때문입니다. 사용자들이 복잡하고 오류가 발생하기 쉬운 캘리브레이션 과정에서 어려움을 겪는다면, 그들은 FAST-LIVO2와 같은 우수한 SLAM 시스템의 진정한 성능을 경험하거나 제대로 평가할 수 없습니다. 이는 곧 알고리즘의 채택과 확산에 심각한 병목 현상을 초래합니다.

MARS Lab은 이러한 문제를 해결하기 위해 직접 나섰습니다. “단 2초 만에” 19 고정밀 캘리브레이션을 수행할 수 있는 자동화된 도구인 FAST-Calib을 제공함으로써, 사용자들이 겪는 가장 큰 진입 장벽 중 하나를 제거한 것입니다. “FAST”라는 브랜딩을 공유하는 것은 이 도구가 연구실의 다른 고성능 알고리즘들과 동일한 철학(속도와 효율성)을 공유하며, 원활하게 작동하도록 설계되었음을 사용자에게 알리는 의도적인 신호입니다. 결과적으로, FAST-Calib은 단순한 유틸리티를 넘어, MARS Lab의 핵심 연구 성과물인 SLAM 시스템의 접근성과 성능을 보장하고, 그 영향력을 극대화하는 핵심적인 ‘활성화 기술(enabling technology)’로서 기능합니다. 이는 연구 성과를 실제 사용자가 쉽게 활용할 수 있는 완전한 생태계로 발전시키려는 연구실의 성숙한 전략을 보여줍니다.

FAST-Calib은 사용자 편의성과 빠른 성능에 초점을 맞춘 실용적인 도구로, 그 설계 철학은 아키텍처, 캘리브레이션 타겟, 그리고 알고리즘 워크플로우 전반에 걸쳐 일관되게 나타납니다. 이 섹션에서는 FAST-Calib의 기술적 구성 요소를 심층적으로 분석하여 그 작동 원리와 설계상의 선택을 탐구합니다.

FAST-Calib의 아키텍처는 명확하고 간결한 목표를 중심으로 구축되었습니다. 공식 GitHub 저장소에서 강조하는 핵심 특징들은 이 도구의 설계 원칙을 잘 보여줍니다.19

FAST-Calib의 성공적인 작동은 특별히 설계된 캘리브레이션 타겟에 크게 의존합니다. 이 타겟의 설계는 단순한 물리적 형태를 넘어, 알고리즘의 강건성과 정확성을 보장하기 위한 공학적 고려가 담겨 있습니다.

FAST-Calib의 전체적인 워크플로우는 데이터 수집부터 최종 변환 행렬 계산까지 체계적인 단계로 구성됩니다.

  1. 데이터 입력: 사용자는 캘리브레이션 타겟이 포함된 정적인 장면을 촬영하여 포인트 클라우드 메시지가 담긴 rosbag 파일과 이에 해당하는 동기화된 이미지를 준비해야 합니다.19
  2. 특징 추출 (카메라): 시스템은 OpenCV를 사용하여 입력 이미지를 처리합니다. 이미지에서 원형 패턴들을 검출하고 각 원의 중심점 픽셀 좌표(2D)를 계산합니다. 이와 동시에, 사용자가 qr_params.yaml 파일에 제공한 카메라의 내부 파라미터(intrinsic matrix)와 왜곡 계수(distortion coefficients)를 사용하여 이미지 왜곡을 보정하고, 검출된 2D 중심점들을 정규화된 이미지 좌표계로 변환합니다.19
  3. 특징 추출 (LiDAR): PCL을 사용하여 rosbag의 포인트 클라우드 데이터를 처리합니다. 먼저, qr_params.yaml에 설정된 거리 필터(distance filter)를 적용하여 캘리브레이션 보드 평면에 속하지 않는 불필요한 포인트들을 제거합니다. 그 후, 남은 포인트들로부터 원형 패턴에 해당하는 포인트 클러스터를 분리하고, 각 클러스터에 RANSAC과 같은 강건한 모델 피팅 알고리즘을 적용하여 3차원 공간상의 원 중심점 좌표(3D)를 정밀하게 추출합니다.19
  4. 최적화/정합 (Optimization/Registration): 이 단계에서는 카메라와 LiDAR에서 각각 추출된 대응되는 원 중심점들의 집합을 사용합니다. 즉, 카메라에서 얻은 3차원 방향 벡터(2D 점을 3D로 역투영)와 LiDAR에서 직접 얻은 3차원 좌표점들 간의 대응 관계가 성립됩니다. 문제는 이 두 포인트 집합 간의 유클리드 거리를 최소화하는 최적의 강체 변환(회전 행렬 R과 평행 이동 벡터 t)을 찾는 고전적인 포인트 집합 정합(point-set registration) 문제로 귀결됩니다. FAST-Calib이 초기 추정값 없이 작동한다는 점 19은 특이값 분해(Singular Value Decomposition, SVD) 기반의 비반복적 해법이나 전역 최적화(global optimization) 기법이 사용되었을 가능성을 시사합니다. 이 과정을 통해 최종적인 외재적 파라미터가 계산됩니다.

이처럼 FAST-Calib은 검증된 알고리즘적 유산을 바탕으로, LiDAR 데이터의 특성에 최적화된 특징(원형 패턴)을 선택하고, 이를 표준 라이브러리를 통해 효율적으로 처리하는 실용적이고 강건한 워크플로우를 구현하고 있습니다.

FAST-Calib의 가치를 온전히 평가하기 위해서는 이 도구를 현재 존재하는 다양한 LiDAR-카메라 캘리브레이션 기술들의 광범위한 맥락 속에 위치시켜야 합니다. 이를 통해 FAST-Calib이 채택한 접근법의 상대적인 강점과 약점을 명확히 파악하고, 그 기술적 선택의 의미를 심도 있게 이해할 수 있습니다. 캘리브레이션 기술은 크게 타겟 기반(target-based), 타겟리스(target-free), 그리고 딥러닝 기반(deep learning-based) 패러다임으로 분류할 수 있습니다.

FAST-Calib은 명백히 타겟 기반 방법론에 속합니다. 이 패러다임은 특별히 제작된 인공적인 객체(타겟)를 사용하여 센서 데이터 간의 명확한 대응 관계를 설정하는 것을 특징으로 합니다.

이러한 비교를 통해 볼 때, FAST-Calib의 원형 패턴 타겟 채택은 LiDAR 센서의 데이터 특성을 깊이 고려한, 매우 합리적이고 효과적인 선택임을 알 수 있습니다.

캘리브레이션 분야의 또 다른 주요한 구분은 타겟의 사용 유무입니다. FAST-Calib의 타겟 기반 접근법은 타겟을 사용하지 않는 타겟리스 방법론과 뚜렷한 장단점을 보입니다.

흥미롭게도, HKU MARS Lab은 FAST-Calib과 같은 타겟 기반 도구뿐만 아니라, 적응형 복셀화(adaptive voxelization)를 이용한 타겟리스 다중 LiDAR/카메라 캘리브레이션 도구(mlcc) 29나, 환경의 모서리 특징을 이용하는 타겟리스 캘리브레이션 도구(livox_camera_calib) 26도 개발하여 공개했습니다. 이는 연구실이 두 패러다임 모두에 깊은 전문성을 가지고 있음을 보여줍니다. 이러한 이중적인 접근은 “공짜 점심은 없다(no free lunch)”는 공학적 원리를 잘 이해하고 있음을 시사합니다. 즉, 특정 사용 사례에 따라 최적의 도구는 달라진다는 것입니다. 연구실 환경에서 새로운 SLAM 알고리즘을 테스트하기 위해 빠르고 신뢰성 있는 캘리브레이션이 필요할 때는 FAST-Calib과 같은 타겟 기반 방식이 우수합니다. 반면, 실제 주행 환경에서 자율적으로 캘리브레이션을 수행해야 하는 자율주행차에는 타겟리스 방식이 필수적입니다. 따라서 MARS Lab의 캘리브레이션 도구 포트폴리오는 중복이 아니라, 기초적인 실험실 설정부터 현장 적용까지 다양한 요구를 충족시키는 포괄적인 툴킷으로 보아야 합니다.

최근 몇 년간, 딥러닝 기술이 캘리브레이션 분야에도 활발히 도입되고 있습니다.2 기하학적 원리에 기반한 고전적인 도구인 FAST-Calib은 이러한 새로운 패러다임과 비교했을 때 뚜렷한 차이를 보입니다.

결론적으로, FAST-Calib은 고전적인 기하학 기반 방법론의 장점을 극대화한, 매우 잘 최적화된 도구입니다. 딥러닝이라는 새로운 패러다임이 부상하고 있음에도 불구하고, 연구 개발 환경에서 빠르고, 신뢰할 수 있으며, 해석 가능한 캘리브레이션이 필요할 때 FAST-Calib과 같은 접근법은 여전히 강력한 유효성과 경쟁력을 가집니다.

표 1: LiDAR-카메라 캘리브레이션 패러다임 비교

패러다임 예시 도구/방법 방법론 타겟 요구사항 자동화 수준 주요 장점 주요 단점
타겟 기반 (원형 패턴) HKU FAST-Calib, velo2cam_calibration 이미지와 포인트 클라우드에서 원형 패턴의 중심점을 추출하여 3D-3D 대응 관계를 설정하고, 포인트 집합 정합을 통해 변환 행렬 최적화. 특정 디자인의 원형 패턴 보드 필요. 높음 (데이터 수집 후 자동 처리). 높은 정밀도와 신뢰성, 명확한 기하학적 제약, 결과 검증 용이. 타겟 설치의 번거로움, 타겟이 없는 환경에서는 사용 불가.
타겟리스 (기하학 기반) HKU mlcc, livox_camera_calib 환경에 자연적으로 존재하는 평면, 선, 모서리 등의 기하학적 특징을 추출하여 센서 데이터 간의 대응 관계 설정. 필요 없음. 중간~높음 (장면 특징에 의존). 높은 유연성, 온라인/지속적 캘리브레이션 가능, 환경 제약 적음. 환경에 충분한 특징이 필요, 특징이 부족하면 성능 저하, 타겟 기반보다 정밀도가 낮을 수 있음.
타겟리스 (딥러닝 기반) LCC-Net, DXQ-Net 심층 신경망을 사용하여 원시 센서 데이터로부터 외재적 파라미터를 직접 회귀. 특징을 암시적으로 학습. 필요 없음. 매우 높음 (End-to-End). 완전 자동화, 복잡한 환경에 대한 잠재적 강건성. 대규모 학습 데이터 필요, 일반화 문제, 결과의 해석 불가능성(블랙박스), 결정론적이지 않음.

이론적 분석을 넘어, FAST-Calib을 실제로 사용하는 연구자와 엔지니어를 위해 이 섹션에서는 구체적인 구현 절차와 커뮤니티에서 보고된 일반적인 문제들에 대한 해결 방안을 제시합니다. 이는 FAST-Calib의 성공적인 활용을 위한 실질적인 지침이 될 것입니다.

성공적인 캘리브레이션의 첫걸음은 올바른 환경 설정과 양질의 데이터 수집입니다.

FAST-Calib GitHub 저장소의 ‘Issues’ 섹션에는 사용자들이 겪는 다양한 문제들이 보고되어 있습니다.30 이를 분석하여 일반적인 실패 원인과 해결책을 정리하면 다음과 같습니다.

5.3. 결과 해석 및 검증

캘리브레이션이 완료되면, 그 결과를 신뢰할 수 있는지 반드시 검증해야 합니다.

표 2: FAST-Calib 문제 해결 가이드

증상 / 오류 메시지 가능한 원인 권장 조치 / 완화 전략
캘리브레이션 오차가 큼 (특히 Z축 평행 이동 값) 1. 단일 또는 유사한 포즈에서만 데이터 수집. 2. Z축에 대한 기하학적 구속 조건 부족. 1. 센서와 타겟 간의 거리와 각도를 다양하게 변경하며 최소 3~5개 이상의 포즈에서 데이터를 수집. 2. 타겟을 정면뿐만 아니라 비스듬한 각도에서도 촬영.
“Point cloud sizes do not match” 오류 발생 1. LiDAR 포인트 클라우드 밀도가 너무 낮아 원형 특징 검출 실패. 2. 이미지에서 조명 불량 등으로 원형 패턴 검출 실패. 3. LiDAR와 카메라의 시야가 거의 겹치지 않음. 1. 타겟을 LiDAR에 더 가깝게 배치하여 포인트 밀도 확보. 2. 타겟에 충분한 조명을 제공하여 이미지 품질 향상. 3. 데이터 수집 전, 두 센서의 시야가 타겟을 포함하여 충분히 겹치는지 확인.
비표준 카메라 모델(예: 어안 렌즈) 사용 시 실패 소프트웨어가 표준 핀홀 카메라 모델을 가정하고 있음. 1. OpenCV의 cv::fisheye::undistortImage와 같은 함수를 사용하여 이미지를 핀홀 모델에 맞게 사전 왜곡 보정. 2. 보정된 이미지를 사용하여 캘리브레이션 수행.
인쇄된 타겟의 크기나 형태가 정확하지 않음 1. 인쇄 설정 오류. 2. 타겟을 평평하지 않은 표면에 부착. 1. 제공된 기술 도면에 명시된 치수와 정확히 일치하도록 100% 스케일로 인쇄. 2. 인쇄물을 포맥스, 아크릴 등 단단하고 평평한 보드에 기포 없이 부착.
LiDAR가 기울어져 설치된 경우 정확도 저하 알고리즘이 센서가 수평으로 설치되었다는 암묵적 가정을 포함할 수 있음. 1. 가능한 한 LiDAR 센서를 수평으로 정확하게 설치. 2. 기울기가 불가피한 경우, 결과의 정확도가 저하될 수 있음을 인지하고, 재투영을 통한 철저한 시각적 검증 수행.

지금까지 HKU MARS Lab의 FAST-Calib을 방법론, 생태계 내에서의 역할, 그리고 실용적 관점에서 다각적으로 분석했다. 이 마지막 섹션에서는 분석 내용을 종합하여 FAST-Calib의 강점과 약점, 그리고 전략적 가치를 비판적으로 평가하고, 이를 바탕으로 센서 캘리브레이션 기술의 미래 발전 방향을 전망하고자 한다.

FAST-Calib은 여러 뚜렷한 강점을 가지고 있지만, 동시에 그 접근법에서 비롯되는 본질적인 한계도 명확합니다.

FAST-Calib이 고전적인 패러다임의 우수한 구현체임은 분명하지만, 센서 캘리브레이션 분야의 연구 최전선은 이미 새로운 방향으로 나아가고 있습니다.

결론적으로, HKU MARS Lab의 FAST-Calib은 빠르고 신뢰할 수 있는 캘리브레이션이 최우선 과제인 연구 개발 및 시스템 초기 설정 단계에서 여전히 매우 유효하고 강력한 도구입니다. 이는 고전적 패러다임이 얼마나 잘 최적화될 수 있는지를 보여주는 훌륭한 사례입니다. 동시에, 로봇 공학의 궁극적인 목표인 완전 자율화를 향한 여정 속에서, 캘리브레이션 기술은 더욱 지능적이고 적응적인 온라인 방식으로 끊임없이 진화해 나갈 것입니다. FAST-Calib은 그 진화의 여정에서 굳건한 디딤돌 역할을 수행하는, 시대를 대표하는 중요한 성과물로 기록될 것입니다.

  1. Online, Target-Free LiDAR-Camera Extrinsic Calibration via Cross-Modal Mask Matching, accessed July 19, 2025, https://arxiv.org/html/2404.18083v2
  2. A Review of Deep Learning-Based LiDAR and Camera Extrinsic …, accessed July 19, 2025, https://www.mdpi.com/1424-8220/24/12/3878
  3. Extrinsic Calibration for LiDAR–Camera Systems Using Direct 3D–2D Correspondences, accessed July 19, 2025, https://www.mdpi.com/2072-4292/14/23/6082
  4. You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems - arXiv, accessed July 19, 2025, https://arxiv.org/html/2407.18043v1
  5. A Novel Calibration Board and Experiments for 3D LiDAR and Camera Calibration - PMC, accessed July 19, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7070607/
  6. A Review of Deep Learning-Based LiDAR and Camera Extrinsic Calibration - ResearchGate, accessed July 19, 2025, https://www.researchgate.net/publication/381497701_A_Review_of_Deep_Learning-Based_LiDAR_and_Camera_Extrinsic_Calibration
  7. Camera–LiDAR Calibration Using Iterative Random Sampling and Intersection Line-Based Quality Evaluation - MDPI, accessed July 19, 2025, https://www.mdpi.com/2079-9292/13/2/249
  8. Deephome/Awesome-LiDAR-Camera-Calibration - GitHub, accessed July 19, 2025, https://github.com/Deephome/Awesome-LiDAR-Camera-Calibration
  9. Survey of Extrinsic Calibration on LiDAR-Camera System for Intelligent Vehicle: Challenges, Approaches, and Trends OpenReview, accessed July 19, 2025, https://openreview.net/forum?id=HAhJkhLUAl
  10. Geometric calibration for LiDAR-camera system fusing 3D-2D and 3D-3D point correspondences, accessed July 19, 2025, https://opg.optica.org/abstract.cfm?URI=oe-28-2-2122
  11. MARS LAB HKU - YouTube, accessed July 19, 2025, https://www.youtube.com/channel/UC_sj0oCXnrBzl2QDn3G38Ww/about
  12. FAST-LIO2: Fast Direct LiDAR-inertial Odometry - GitHub, accessed July 19, 2025, https://raw.githubusercontent.com/hku-mars/FAST_LIO/main/doc/Fast_LIO_2.pdf
  13. [2010.08196] FAST-LIO: A Fast, Robust LiDAR-inertial Odometry Package by Tightly-Coupled Iterated Kalman Filter - arXiv, accessed July 19, 2025, https://arxiv.org/abs/2010.08196
  14. FAST-LIO2: Fast Direct LiDAR-inertial Odometry, accessed July 19, 2025, https://arxiv.org/abs/2107.06829
  15. MαRS Lab at HKU - YouTube, accessed July 19, 2025, https://www.youtube.com/playlist?list=PLBS7MEwCM1ZZ-56BjyCAyY2YtJClISqtD
  16. FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry - GitHub, accessed July 19, 2025, https://github.com/hku-mars/FAST-LIVO2
  17. FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry - arXiv, accessed July 19, 2025, https://arxiv.org/html/2408.14035v2
  18. FAST-LIVO2 on Resource-Constrained Platforms: LiDAR-Inertial-Visual Odometry with Efficient Memory and Computation Request PDF - ResearchGate, accessed July 19, 2025, https://www.researchgate.net/publication/388354428_FAST-LIVO2_on_Resource-Constrained_Platforms_LiDAR-Inertial-Visual_Odometry_with_Efficient_Memory_and_Computation
  19. hku-mars/FAST-Calib: A Handy Extrinsic Calibration Tool for LiDAR-camera Systems., accessed July 19, 2025, https://github.com/hku-mars/FAST-Calib
  20. README.md - hku-mars/FAST-Calib - GitHub, accessed July 19, 2025, https://github.com/hku-mars/FAST-Calib/blob/main/README.md
  21. beltransen/velo2cam_calibration: Automatic Extrinsic … - GitHub, accessed July 19, 2025, https://github.com/beltransen/velo2cam_calibration
  22. Automatic Extrinsic Calibration Method for LiDAR and Camera, accessed July 19, 2025, https://paperswithcode.com/paper/automatic-extrinsic-calibration-method-for
  23. Improvement on LiDAR-Camera Calibration Using Square Targets - arXiv, accessed July 19, 2025, https://arxiv.org/html/2506.18294
  24. Tips for calibrating / aligning the camera - Resources - LightBurn Software Forum, accessed July 19, 2025, https://forum.lightburnsoftware.com/t/tips-for-calibrating-aligning-the-camera/9365
  25. Automatic LiDAR-Camera Calibration of Extrinsic Parameters Using a Spherical Target, accessed July 19, 2025, https://www.researchgate.net/publication/344981931_Automatic_LiDAR-Camera_Calibration_of_Extrinsic_Parameters_Using_a_Spherical_Target
  26. hku-mars/livox_camera_calib: This repository is used for automatic calibration between high resolution LiDAR and camera in targetless scenes. - GitHub, accessed July 19, 2025, https://github.com/hku-mars/livox_camera_calib
  27. Automatic Targetless Monocular Camera and LiDAR External Parameter Calibration Method for Mobile Robots - Semantic Scholar, accessed July 19, 2025, https://pdfs.semanticscholar.org/5b8e/d0ac60f2c3adb9032f52736799b2fa4c9603.pdf
  28. Deep Learning-Based Online Automatic Targetless LiDAR–Camera Calibration with Iterative and Attention-Driven Post - arXiv, accessed July 19, 2025, https://arxiv.org/pdf/2502.17648?
  29. hku-mars/mlcc: Fast and Accurate Extrinsic Calibration for Multiple LiDARs and Cameras - GitHub, accessed July 19, 2025, https://github.com/hku-mars/mlcc
  30. Issues / hku-mars/FAST-Calib - GitHub, accessed July 19, 2025, https://github.com/hku-mars/FAST-Calib/issues