Booil Jung

드론 자율 비행 및 충돌 회피를 위한 LiDAR, IMU, GNSS 융합

자율 비행 드론의 핵심은 ‘자신이 어디에 있고, 어떻게 움직이고 있으며, 주변 환경은 어떠한가’를 정확하게 인지하는 능력에 있다. 이를 위해 다양한 센서를 사용하지만, 단일 센서만으로는 강인하고 신뢰성 있는 자율 비행을 달성하기 어렵다. 각 센서는 고유의 강점과 함께 명백한 한계를 가지고 있기 때문이다.

이 세 가지 센서는 서로의 약점을 완벽하게 보완하는 상보적(Complementary) 관계에 있다.8 GNSS가 수신 불가능한 실내나 도심 협곡에서는 LiDAR와 IMU의 결합(LiDAR-Inertial Odometry)이 주된 위치 추정 수단이 된다. 특징 없는 평평한 바닥이나 넓은 벽면을 지날 때 LiDAR가 방향을 잃으면, IMU가 단기적인 움직임을 정확히 추적하여 위치를 보정해준다. 장시간 비행으로 IMU와 LiDAR의 드리프트가 누적되더라도, 잠시 GNSS 신호가 양호한 곳으로 나오면 절대 위치 정보를 통해 누적된 오차를 한 번에 보정할 수 있다.

이러한 센서 융합의 가치는 단순히 여러 데이터를 평균내는 것을 넘어선다. 각 센서의 실패 모드(failure mode)가 서로 상관관계가 거의 없다는 점이 핵심이다. GNSS 신호가 끊긴다고 해서 IMU의 드리프트가 더 심해지지는 않으며, LiDAR가 특징 없는 벽 앞에서 성능이 저하된다고 해서 IMU의 회전 측정 능력이 영향을 받지는 않는다. 이 덕분에 융합 시스템은 하나의 센서가 일시적으로 무력화되더라도 다른 센서들의 정보를 바탕으로 안정적인 위치 추정을 지속할 수 있다. 이는 개별 센서의 합보다 훨씬 더 강인하고 신뢰성 있는 하나의 통합 인지 시스템을 만들어낸다.8

본 튜토리얼은 LiDAR, IMU, GNSS 데이터를 효과적으로 융합하는 최신 기법을 상세히 다루는 것을 목표로 한다. 이를 위해 참조 아키텍처로 LIO-SAM (Lidar-Inertial Odometry via Smoothing and Mapping)을 채택한다.11 LIO-SAM은 팩터 그래프(Factor Graph)라는 최적화 기법을 기반으로 여러 센서 정보를 긴밀하게 결합(Tightly-coupled)하는 강력한 프레임워크다.

튜토리얼에서 다룰 전체 파이프라인은 다음과 같다:

  1. 센서 데이터 전처리: 각 센서에서 들어오는 원시 데이터를 정제하여 신뢰성을 높인다.
  2. LiDAR-IMU Odometry (프론트엔드): LiDAR와 IMU 데이터를 융합하여 빠르고 연속적인 상대 움직임을 추정한다.
  3. 팩터 그래프 최적화 (백엔드): 프론트엔드에서 추정한 상대 움직임, GNSS 절대 위치, 루프 클로저(Loop Closure) 등 다양한 정보를 팩터 그래프에 통합하여 전역적으로 최적화된 전체 궤적을 계산한다.
  4. 3D 맵핑 및 경로 계획: 최적화된 궤적 정보를 바탕으로 3차원 지도를 생성하고, 이를 기반으로 목표 지점까지 안전한 경로를 계획한다.

본 튜토리얼은 사용자가 제시한 특정 하드웨어 구성을 가정한다. 이 구성은 자율 비행 드론을 위한 매우 실용적이고 강인한 설계다.

이러한 구성은 두 가지 다른 목적의 인식 시스템을 결합한 형태다. Avia는 장기적인 경로 계획과 지도 작성을 위한 ‘원시안(far-sighted eye)’ 역할을 하고, 두 개의 Mid-360은 즉각적인 충돌 회피를 위한 ‘안전 버블(safety bubble)’을 형성한다. 이 조합은 다양한 환경에서 드론의 생존성과 임무 수행 능력을 극대화한다.

표 1: 드론 탑재 센서 핵심 제원 (Livox Avia & Mid-360)

특징 Livox Avia Livox Mid-360
무게 498 g (케이블 제외) 12 265 g 15
탐지 범위 (80% 반사율) 320 m (@100 klx), 450 m (@0 klx) 13 70 m (@100 klx) 15
시야각 (H × V) 70.4° × 77.2° (비반복 스캔) 13 360° × 59° 16
포인트 생성률 240k/s (단일), 480k/s (이중), 720k/s (삼중) 13 200k/s (단일) 15
거리 정밀도 (1σ) 2 cm (@20m) 13 ≤ 2 cm (@10m) 15
내장 IMU 모델 BMI088 13 ICM40609 15
방수/방진 등급 IP67 12 IP67 15

모든 센서 융합 시스템의 성능은 입력되는 데이터의 품질에 의해 결정된다. 원시(Raw) 데이터에는 노이즈, 이상치(outlier), 계산 부하를 유발하는 중복 정보가 포함되어 있다. 따라서 강력한 융합 알고리즘을 적용하기 전에, 데이터를 정제하여 신뢰할 수 있는 측정값을 확보하는 전처리 과정이 필수적이다.

LiDAR 센서는 초당 수십만 개의 3D 포인트를 생성하며, 이 방대한 데이터를 실시간으로 처리하는 것은 상당한 계산 부담을 야기한다. 또한, 측정 과정에서 발생하는 노이즈는 후속 처리 단계에서 심각한 오류를 유발할 수 있다. 따라서 다운샘플링과 노이즈 제거는 LiDAR 처리 파이프라인의 첫 단추다.

이 두 전처리 과정은 순서대로 적용하는 것이 효과적이다. 먼저 Voxel Grid 필터로 데이터의 양을 줄인 후, 더 적은 수의 포인트를 대상으로 계산 비용이 상대적으로 높은 Statistical Outlier Removal 필터를 적용하는 것이 전체적인 처리 속도를 향상시킨다. 이처럼 정제된 포인트 클라우드는 후속 LOAM 알고리즘의 성능과 안정성을 크게 향상시키는 기반이 된다.24

IMU는 자율 비행 시스템의 동역학을 이해하는 데 필수적이지만, 그 측정값은 여러 노이즈 소스에 의해 오염되어 있다. 이러한 노이즈를 정확히 모델링하고 보상하지 않으면, IMU 데이터를 적분하는 과정에서 발생하는 드리프트로 인해 시스템 전체의 성능이 저하된다.

IMU 센서(가속도계, 자이로스코프)의 측정값은 이상적인 참값(true value)에 여러 확률적 오차 항들이 더해진 형태로 모델링된다. 주요 오차 항은 다음과 같다 4:

이러한 오차들은 단일 측정에서는 미미해 보일 수 있지만, 수백 Hz의 속도로 연속적으로 적분되면 위치 및 자세 오차가 빠르게 누적되어 심각한 드리프트를 유발한다.4

정확한 노이즈 파라미터(N, B, K)를 얻는 것은 ESKF(오류 상태 칼만 필터)의 성능에 지대한 영향을 미친다. 이 값들은 필터의 예측 단계에서 사용되는 공정 노이즈 공분산 행렬 Q를 구성하는 데 직접적으로 사용된다.31 부정확한

Q 행렬은 필터가 IMU 예측값을 과도하게 신뢰하거나 불신하게 만들어, 결국 최적이 아닌 상태 추정이나 심할 경우 필터의 발산을 초래할 수 있다. 알란 분산 분석은 한 번의 오프라인 교정으로 온라인 융합 시스템 전체의 성능을 극적으로 향상시키는, 매우 중요한 엔지니어링 절차다.

GNSS는 개활지에서 센티미터 수준의 정확도를 제공할 수 있지만, 도심이나 장애물이 많은 환경에서는 그 신뢰성이 크게 저하된다. 위성 신호가 건물과 같은 구조물에 반사된 후 수신기에 도달하는 다중경로(Multipath) 현상은 GNSS 측정값에 수 미터에서 수십 미터에 이르는 큰 오차를 유발한다. 이러한 오차는 일반적인 가우시안 노이즈 분포를 따르지 않는 이상치(outlier)의 형태로 나타나며, 표준적인 칼만 필터나 최소제곱법 기반의 위치 추정 알고리즘을 심각하게 오염시킨다.6 단 하나의 큰 이상치만으로도 필터의 상태 추정치가 완전히 잘못된 값으로 수렴할 수 있다.

이러한 비-가우시안 이상치에 강인하게 대응하기 위해 RANSAC 알고리즘을 사용한 전처리 단계를 도입한다. RANSAC은 전체 데이터셋에 다수의 이상치가 포함되어 있다는 가정 하에, 일관성 있는 데이터의 최대 부분집합(inlier set)을 찾아내는 강력한 모델 피팅 기법이다.33

이 RANSAC 과정을 통해 얻어진 ‘정제된’ GNSS 위치와 그에 해당하는 공분산은 이제 신뢰할 수 있는 측정값으로 간주될 수 있다. 이 값을 메인 융합 필터(ESKF)의 업데이트 단계에 사용함으로써, 다중경로로 인한 심각한 이상치가 필터 전체를 오염시키는 것을 효과적으로 방지할 수 있다.


데이터 정제를 통해 신뢰할 수 있는 측정값을 확보했다면, 이제 이들을 융합하여 드론의 상태를 정확하게 추정할 차례다. 이 과정의 핵심은 고주파의 IMU 데이터와 상대적으로 저주파이지만 정확한 LiDAR, GNSS 데이터를 결합하는 것이다. 본 튜토리얼에서는 LIO-SAM 아키텍처를 따라, 프론트엔드에서 LiDAR Odometry를 계산하고, 백엔드에서 ESKF와 팩터 그래프 최적화를 통해 전역적으로 일관된 궤적을 추정하는 방식을 다룬다.

수십만 개의 포인트로 구성된 전체 포인트 클라우드를 직접 정합하는 ICP(Iterative Closest Point)와 같은 방식은 계산 비용이 매우 높아 실시간 처리가 어렵다.7 LOAM(Lidar Odometry and Mapping)은 이 문제를 해결하기 위해, 기하학적으로 구별되는 소수의 ‘특징점’만을 추출하여 움직임을 추정하는 효율적인 접근법을 제안한다.36

LOAM의 핵심 아이디어는 포인트 클라우드에서 안정적이고 반복적으로 검출될 수 있는 기하학적 특징을 찾는 것이다.

추출된 특징점들은 드론의 움직임을 추정하는 데 사용된다. LOAM은 이전 스캔 하나(scan-to-scan)가 아닌, 여러 이전 스캔들이 누적된 지역 맵(local map)에 현재 스캔을 정합(scan-to-map)함으로써 드리프트를 효과적으로 억제한다.25

이 특징점 기반의 scan-to-map 정합 방식은 전체 포인트를 사용하는 것보다 훨씬 계산적으로 효율적이면서도 높은 정확도를 제공하여, 실시간 LiDAR Odometry의 핵심 기술로 자리 잡았다.

팩터 그래프와 같은 최적화 기반의 SLAM 시스템에서는 일정 시간 동안의 모든 상태 변수(예: 여러 시점에서의 드론 자세)를 동시에 최적화한다. 만약 최적화 과정에서 과거의 어떤 상태 추정치(예: 1초 전의 드론 자세)가 수정되면, 그 상태에 의존하는 모든 미래의 측정값들을 다시 계산해야 한다. IMU는 200Hz 이상의 매우 높은 주파수로 측정값을 제공하므로, 과거 상태가 조금만 바뀌어도 그 이후의 수백, 수천 개의 IMU 측정값을 처음부터 다시 적분해야 하는 엄청난 계산 비효율이 발생한다.38

IMU Preintegration(사전적분)은 이 문제를 해결하는 우아한 수학적 기법이다.

IMU 사전적분은 고주파의 IMU 데이터를 최적화 프레임워크에 효율적으로 통합할 수 있게 만든 핵심적인 이론적 돌파구이며, 현대의 고성능 VIO(Visual-Inertial Odometry) 및 LIO 시스템의 기반을 이룬다.

ESKF는 비선형 시스템, 특히 IMU와 같이 회전 운동을 다루는 시스템의 상태를 추정하는 데 매우 효과적이고 안정적인 기법이다. 전체 상태를 직접 추정하는 표준 EKF(Extended Kalman Filter)와 달리, ESKF는 시스템의 ‘오류’를 추정하는 간접적인 방식을 사용한다.

ESKF의 핵심 철학은 전체 상태를 두 부분으로 나누어 다루는 것이다.31

\[x_t = x \oplus \delta x\]

이 합성(composition) 연산 는 상태 변수의 종류에 따라 다르게 정의된다 31:

이러한 분리 덕분에 칼만 필터는 항상 0 주변에서 동작하는 선형적인 오류 상태만을 다루게 되므로, EKF의 선형화 가정이 훨씬 더 잘 만족되어 필터의 안정성과 정확성이 크게 향상된다.43

표 2: ESKF 상태 변수 정의

상태 참 상태 (x_t) 공칭 상태 (x) 오류 상태 (δx) 차원
위치 p_t p δp 3
속도 v_t v δv 3
자세 q_t q δθ 3 (오류)
가속도 바이어스 b_{at} b_a δb_a 3
자이로 바이어스 b_{gt} b_g δb_g 3

예측 단계에서는 외부 측정값 없이, 오직 IMU 측정값만을 사용하여 시스템의 상태를 다음 시간으로 전파시킨다.

표 3: ESKF 예측 단계 핵심 방정식

설명 방정식
오류 공분산 예측 $P \leftarrow F_x P F_x^T + Q_d$
상태 전이 행렬 (F_x) $\begin{bmatrix} I & I\Delta t & 0 & 0 & 0 \ 0 & I & -R [a_m - b_a]\times \Delta t & -R\Delta t & 0 \ 0 & 0 & \text{Exp}(-[\omega_m - b_g]\times \Delta t) & 0 & -I\Delta t \ 0 & 0 & 0 & I & 0 \ 0 & 0 & 0 & 0 & I \end{bmatrix}$
공정 노이즈 (Q_d) $\text{diag}(\sigma_{v}^2 I, \sigma_{\theta}^2 I, \sigma_{b_a}^2 I, \sigma_{b_g}^2 I)$

업데이트 단계에서는 GNSS 위치나 LiDAR Odometry와 같은 외부 측정값을 사용하여 예측된 상태를 보정한다.

  1. 혁신(Innovation) 계산: 실제 측정값 y와 현재 공칭 상태로부터 예측된 측정값 h(x) 사이의 차이를 계산한다. y_{innov} = y - h(x).

  2. 측정 자코비안 계산: 측정 모델 h를 오류 상태 δx에 대해 편미분하여 측정 자코비안 H를 계산한다.

  3. 칼만 이득(Kalman Gain) 계산: 오류 공분산 P, 측정 자코비안 H, 측정 노이즈 공분산 V를 이용하여 칼만 이득 K를 계산한다. \(K = P H^T (H P H^T + V)^{-1}\) 오류 상태 및 공분산 업데이트: 계산된 칼만 이득과 혁신을 사용하여 오류 상태의 평균과 공분산을 업데이트한다. \(\hat{\delta x} \leftarrow K y_{innov} \\ P \leftarrow (I - KH)P \\\) 공칭 상태 주입(Injection): 계산된 오류 상태 δx를 공칭 상태 x에 “주입”하여 보정한다. \(p \leftarrow p + \hat{\delta p}\\ v \leftarrow v + \hat{\delta v}\\ q \leftarrow q \otimes \text{quat}(\hat{\delta \theta})\\ b_a \leftarrow b_a + \hat{\delta b_a}\\ b_g \leftarrow b_g + \hat{\delta b_g}\\\) 리셋(Reset): 공칭 상태가 보정되었으므로, 오류 상태의 평균은 다시 0으로 리셋하고, 공분산 행렬도 이에 맞게 재조정하여 다음 예측 단계를 준비한다.31

표 4: ESKF 업데이트 단계 핵심 방정식

설명 방정식
혁신 (Innovation) $y_{innov} = y - h(x)$
칼만 이득 (Kalman Gain) $K = P H^T (H P H^T + V)^{-1}$
오류 상태 업데이트 $\hat{\delta x} \leftarrow K y_{innov}$
공분산 업데이트 $P \leftarrow (I - KH)P$
공칭 상태 주입 $x \leftarrow x \oplus \hat{\delta x}$

ESKF가 고주파의 실시간 상태 추정에 뛰어나다면, 팩터 그래프는 일정 시간 동안의 전체 궤적을 전역적으로 최적화하여 더 높은 정확도와 일관성을 제공하는 백엔드(back-end) 기술이다. LIO-SAM은 이 두 가지 접근법의 장점을 결합한 하이브리드 구조를 가진다.11

팩터 그래프는 상태 변수와 그들 사이의 제약 조건을 그래프 형태로 표현한 것이다.

LIO-SAM의 팩터 그래프는 다음과 같은 주요 팩터들로 구성된다:

LIO-SAM은 GTSAM (Georgia Tech Smoothing and Mapping)이라는 강력한 C++ 라이브러리를 백엔드로 사용한다.11

이러한 팩터 그래프 기반의 전역 최적화는 LIO-SAM이 장시간 동안 복잡한 환경에서 낮은 드리프트와 높은 정확도를 유지할 수 있는 핵심적인 이유다.


성공적인 센서 융합을 통해 드론의 정확한 실시간 위치와 자세(Pose)를 얻었다면, 이제 이 정보를 활용하여 자율 비행의 고차원적인 임무를 수행할 수 있다. 그 핵심은 주변 환경을 이해하는 ‘지도 작성(Mapping)’과 목표 지점까지 안전하게 이동하는 ‘경로 계획(Path Planning)’이다.

정확한 지도는 드론이 자신의 위치를 파악하고(localization), 장애물을 회피하며, 임무를 계획하는 데 필수적인 기반이다.

드론에 장착된 3개의 LiDAR(전방 Avia, 상/하부 Mid-360)로부터 들어오는 포인트 클라우드는 각각 센서 자신의 좌표계를 기준으로 표현된다. 이를 하나의 일관된 지도로 만들기 위해서는 다음 과정이 필요하다.

  1. 좌표 변환: 2부에서 최적화된 드론의 전역 자세(Global Pose)를 사용한다. 각 LiDAR 스캔이 수집된 시점의 드론 자세를 기준으로, 각 포인트 클라우드를 전역 좌표계(Global Frame, 예: ‘map’ 또는 ‘world’ 프레임)로 변환한다.
  2. 데이터 병합: 전역 좌표계로 변환된 전방, 상부, 하부의 포인트 클라우드들을 하나의 누적된 포인트 클라우드 맵으로 합친다.

이 과정의 정확성은 각 센서의 드론 본체에 대한 상대적인 위치와 방향, 즉 외부 파라미터 교정(Extrinsic Calibration)이 얼마나 정밀하게 이루어졌는지에 크게 의존한다.

단순한 포인트 클라우드 맵은 점유된 공간만을 표현할 뿐, 드론이 비행할 수 있는 ‘비어 있는 공간(Free Space)’에 대한 정보를 명시적으로 제공하지 않는다. OctoMap은 이러한 한계를 극복하는 효율적이고 강력한 3D 지도 표현 방식이다.

정확한 LIO(LiDAR-Inertial Odometry)로부터 얻은 자세 추정치는 양질의 지도를 만드는 데 있어 절대적인 전제 조건이다. 자세 추정에 오차가 있으면, 지도상의 물체들이 여러 겹으로 겹쳐 보이거나 흐릿하게 나타나는 등 지도의 일관성이 깨지게 된다. 경로 계획 알고리즘은 ‘점유’된 곳뿐만 아니라 ‘자유’로운 곳에 대한 정보도 필요로 하므로, 미탐사 영역까지 명확히 구분해주는 OctoMap은 자율 비행을 위한 필수적인 지도 표현 방식이다.

안전하고 효율적인 자율 비행을 위해서는 계층적인 경로 계획(Hierarchical Path Planning) 접근법이 널리 사용된다. 이는 계산 비용이 높은 전역적인 최적 경로 탐색과, 실시간으로 빠르게 반응해야 하는 지역적인 충돌 회피를 분리하여 처리하는 방식이다.47

A*가 생성한 전역 경로는 이상적인 ‘지도’일 뿐, 실제 드론이 따라가야 할 세부적인 제어 명령은 아니다. DWA는 전역 경로를 이정표 삼아, 실시간으로 변화하는 주변 환경과 드론의 물리적 한계를 고려하여 실제 모터에 전달할 최적의 속도(선속도 v, 각속도 ω)를 결정하는 지역 경로 계획(Local Planning) 기법이다.51

이러한 전역/지역 플래너의 조합은 매우 강인하고 효과적인 내비게이션 아키텍처를 구성한다. A*는 드론이 큰 규모의 막다른 길에 빠지는 것을 방지하는 전략적인 그림을 제공하고, DWA는 지도에 없던 동적 장애물에 반응하고 드론의 물리적 한계를 준수하는 전술적인 실시간 제어를 담당한다. 이 계층적 접근법은 계산 비용이 높은 전역 탐색과 빠른 반응성이 요구되는 지역 제어를 효과적으로 분리한다.47


본 튜토리얼에서 제시한 LiDAR, IMU, GNSS 융합 파이프라인은 강인한 자율 비행 드론을 구현하기 위한 강력한 청사진이다. 하지만 성공적인 시스템을 구축하기 위해서는 알고리즘에 대한 이해를 넘어, 세심한 파라미터 튜닝과 실제 환경의 다양한 도전 과제에 대한 고려가 필수적이다.

시스템의 성능은 여러 핵심 파라미터의 값에 크게 좌우된다. 각 파라미터는 서로 영향을 미치므로, 체계적인 접근과 반복적인 실험을 통해 최적의 값을 찾아야 한다.

본 튜토리얼에서 다룬 아키텍처는 주로 정적인 환경을 가정한다. 실제 환경에서는 더 복잡한 문제들이 발생할 수 있다.

로보틱스 분야는 빠르게 발전하고 있으며, 센서 융합 기술 또한 새로운 패러다임으로 진화하고 있다.

본 튜토리얼이 제시한 원리와 기법들을 깊이 이해하고, 실제 환경의 복잡성을 고려하여 시스템을 설계하고 끊임없이 개선해 나간다면, 어떤 환경에서도 신뢰성 있게 임무를 수행하는 진정한 의미의 자율 비행 드론을 구현할 수 있을 것이다.

  1. Incorporating GNSS Information with LIDAR-Inertial Odometry for Accurate Land-Vehicle Localization - arXiv, accessed July 21, 2025, https://arxiv.org/html/2503.23199v1
  2. Exploring LiDAR Drones: Applications & Industry Uses - Flyability, accessed July 21, 2025, https://www.flyability.com/blog/lidar-drone
  3. Strengths and limitations of LiDAR - Scout Aerial Australia, accessed July 21, 2025, https://www.scoutaerial.com.au/article-lidar/
  4. IMU Challenges and Limitations - ANELLO, accessed July 21, 2025, https://www.anellophotonics.com/challenges-and-limitations
  5. Advantages and Disadvantages of Inertial Measurement Units, accessed July 21, 2025, https://inertiallabs.com/advantages-and-disadvantages-of-inertial-measurement-units/
  6. A GNSS/LiDAR/IMU Pose Estimation System Based on … - MDPI, accessed July 21, 2025, https://www.mdpi.com/2072-4292/15/3/790
  7. High Definition 3D Map Creation Using GNSS/IMU/LiDAR Sensor …, accessed July 21, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7039384/
  8. What is sensor fusion? 1 + 1 = 50 Ainstein, accessed July 21, 2025, https://ainstein.ai/what-is-sensor-fusion-1-1-50/
  9. Sensors Fusion: An Overview - AZoSensors, accessed July 21, 2025, https://www.azosensors.com/article.aspx?ArticleID=3123
  10. Precision without GPS: Multi-Sensor Fusion for Autonomous Drone Navigation in Complex Environments - ijircst.org, accessed July 21, 2025, https://www.ijircst.org/DOC/6-Precision-without-GPS-Multi-Sensor-Fusion-for-Autonomous-Drone-Navigation-in-Complex-Environments.pdf
  11. LIO_SAM - Autoware Documentation, accessed July 21, 2025, https://autowarefoundation.github.io/autoware-documentation/pr-279/how-to-guides/integrating-autoware/creating-maps/open-source-slam/lio-sam/
  12. Livox AVIA - LiDAR - BEYOND VISION, accessed July 21, 2025, https://beyond-vision.com/payloads/livox-avia-lidar/
  13. Specs - Avia LiDAR sensor - Livox, accessed July 21, 2025, https://www.livoxtech.com/avia/specs
  14. LIDAR for surveying drones: Functionality, advantages and disadvantag - Airclip, accessed July 21, 2025, https://www.airclip.de/LIDAR-for-surveying-drones-Functionality-advantages-and-disadvantages
  15. Specs - Mid-360 LiDAR Sensor - Livox, accessed July 21, 2025, https://www.livoxtech.com/mid-360/specs
  16. Livox Mid-360 - Sachtleben Technology, accessed July 21, 2025, https://www.sachtleben-technology.com/wp-content/uploads/sites/5/2024/07/LivoxMid-360UserManual.pdf
  17. Unitree LIVOX MID360 LiDAR - STEMfinity, accessed July 21, 2025, https://stemfinity.com/products/livox-mid360-lidar
  18. Downsampling a PointCloud using a VoxelGrid filter - Point Cloud Library, accessed July 21, 2025, https://pointclouds.org/documentation/tutorials/voxel_grid.html
  19. Mastering 3D Computer Vision & Point Cloud Processing-Mod 9-Point Cloud to Mesh and Point Cloud to Voxel Grid Conversion with Code - Rajavel PM (RPM), accessed July 21, 2025, https://pmrajavel.medium.com/mastering-3d-computer-vision-point-cloud-processing-mod-9-point-cloud-to-mesh-and-point-cloud-to-080adfc32d31
  20. pcl::ApproximateVoxelGrid< PointT > Class Template Reference - Point Cloud Library, accessed July 21, 2025, https://pointclouds.org/documentation/classpcl_1_1_approximate_voxel_grid.html
  21. Tutorial - Point Cloud Library – pmdtechnologies ag, accessed July 21, 2025, https://3d.pmdtec.com/en/tutorial-point-cloud-library/
  22. Removing outliers using a StatisticalOutlierRemoval filter - Point Cloud Library 0.0 documentation - Compiling PCL, accessed July 21, 2025, https://pcl.readthedocs.io/projects/tutorials/en/latest/statistical_outlier.html
  23. The algorithm behind pcl::StatisticalOutlierRemoval - Cross Validated - Stack Exchange, accessed July 21, 2025, https://stats.stackexchange.com/questions/288669/the-algorithm-behind-pclstatisticaloutlierremoval
  24. detectLOAMFeatures - Detect LOAM feature points in point cloud - MATLAB - MathWorks, accessed July 21, 2025, https://www.mathworks.com/help/lidar/ref/detectloamfeatures.html
  25. Build a Map with Lidar Odometry and Mapping (LOAM) Using Unreal Engine Simulation - MATLAB & Simulink - MathWorks, accessed July 21, 2025, https://www.mathworks.com/help/lidar/ug/build-map-with-loam-using-unreal-engine.html
  26. Drone IMU Calibration Explained - Pilot Institute, accessed July 21, 2025, https://pilotinstitute.com/drone-imu-calibration-explained/
  27. Allan Variance: Noise Analysis for Gyroscopes - Telesens, accessed July 21, 2025, https://telesens.co/wp-content/uploads/2017/05/AllanVariance5087-1.pdf
  28. Getting Started » Sensor Calibration - OpenVINS, accessed July 21, 2025, https://docs.openvins.com/gs-calibration.html
  29. IMU Fundamentals, Part 4: Allan Deviation and IMU Error Modeling - Tangram Visions Blog, accessed July 21, 2025, https://www.tangramvision.com/blog/the-allan-deviation-and-imu-error-modeling-part-4-of-5
  30. Inertial Sensor Noise Analysis Using Allan Variance - MATLAB & Simulink - MathWorks, accessed July 21, 2025, https://www.mathworks.com/help/fusion/ug/inertial-sensor-noise-analysis-using-allan-variance.html
  31. Quaternion kinematics for the error-state KF - IRI UPC, accessed July 21, 2025, https://www.iri.upc.edu/people/jsola/JoanSola/objectes/notes/kinematics.pdf
  32. Outlier Detection in GNSS Pseudo-Range/Doppler Measurements for Robust Localization, accessed July 21, 2025, https://www.mdpi.com/1424-8220/16/4/580
  33. Redalyc.OUTLIERS DETECTION BY RANSAC ALGORITHM IN THE TRANSFORMATION OF 2D COORDINATE FRAMES, accessed July 21, 2025, https://www.redalyc.org/pdf/3939/393933953008.pdf
  34. A new inlier identification scheme for robust estimation problems - Robotics, accessed July 21, 2025, https://www.roboticsproceedings.org/rss02/p18.pdf
  35. An Enhanced RANSAC-RTK Algorithm in GNSS-Challenged Environments - ResearchGate, accessed July 21, 2025, https://www.researchgate.net/publication/374524870_An_Enhanced_RANSAC-RTK_Algorithm_in_GNSS-Challenged_Environments
  36. LOAM: Lidar Odometry and Mapping in Real-time - Carnegie Mellon University’s Robotics Institute, accessed July 21, 2025, https://www.ri.cmu.edu/pub_files/2014/7/Ji_LidarMapping_RSS2014_v8.pdf
  37. Edge and planar features obtained from two different lidar odometry and… - ResearchGate, accessed July 21, 2025, https://www.researchgate.net/figure/Edge-and-planar-features-obtained-from-two-different-lidar-odometry-and-mapping_fig4_330592017
  38. IMU Preintegration Theory - Manohar Kuse’s Cyber, accessed July 21, 2025, https://kusemanohar.info/2021/10/26/imu-preintegration-theory/
  39. Any resources to learn about IMU pre integration? : r/robotics - Reddit, accessed July 21, 2025, https://www.reddit.com/r/robotics/comments/17ni2od/any_resources_to_learn_about_imu_pre_integration/
  40. Continuous Integration over SO(3) for IMU Preintegration - Robotics, accessed July 21, 2025, https://www.roboticsproceedings.org/rss17/p078.pdf
  41. IMU Fundamentals, Part 5: Preintegration Basics - Tangram Visions Blog, accessed July 21, 2025, https://www.tangramvision.com/blog/imu-preintegration-basics-part-5-of-5
  42. Robust Error-State Kalman Filter For Estimating IMU Orientation PDF - Scribd, accessed July 21, 2025, https://www.scribd.com/document/571135734/09206131
  43. (PDF) Quaternion kinematics for the error-state KF - ResearchGate, accessed July 21, 2025, https://www.researchgate.net/publication/278619675_Quaternion_kinematics_for_the_error-state_KF
  44. Create a OctoMap from a PointCloud - Google Groups, accessed July 21, 2025, https://groups.google.com/g/octomap/c/J5OoK3pYa7o
  45. octomap_server - ROS Wiki, accessed July 21, 2025, http://wiki.ros.org/octomap_server
  46. [ROS Q&A] 085 - Basic usage of octomap_mapping package - Tutorial - YouTube, accessed July 21, 2025, https://www.youtube.com/watch?v=dF2mlKJqkUg
  47. DWA-3D: A Reactive Planner for Robust and Efficient Autonomous UAV Navigation - arXiv, accessed July 21, 2025, https://arxiv.org/html/2409.05421v1
  48. Improved A* Path Planning Method Based on the Grid Map - PMC, accessed July 21, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC9416044/
  49. ALGORITHMS FOR VOXEL-BASED ARCHITECTURAL SPACE ANALYSIS - Autodesk Research, accessed July 21, 2025, https://www.research.autodesk.com/app/uploads/2023/06/Algorithms-for-VASA.pdf
  50. Voxel-Based Path Planning for Autonomous Vehicles in Parking Lots - MDPI, accessed July 21, 2025, https://www.mdpi.com/2220-9964/14/4/147
  51. Dynamic Window Approach (DWA) - 5.4.3 Chapter 5: Motion Planning and Path Optimization Robotics Advance - AllRounder.ai, accessed July 21, 2025, https://allrounder.ai/robotics-advance/chapter-5-motion-planning-and-path-optimization/dynamic-window-approach-dwa-543-lesson-683b0d
  52. The Dynamic Window Approach to Collision Avoidance 1 Introduction - Carnegie Mellon University’s Robotics Institute, accessed July 21, 2025, https://www.ri.cmu.edu/pub_files/pub1/fox_dieter_1997_1/fox_dieter_1997_1.pdf
  53. dwa_local_planner - ROS Wiki, accessed July 21, 2025, http://wiki.ros.org/dwa_local_planner
  54. Obstacle Detection and Collision Avoidance for Unmanned Vehicles, accessed July 21, 2025, https://www.unmannedsystemstechnology.com/expo/collision-obstacle-avoidance/
  55. Sensor Fusion in Autonomous Vehicles: Enhancing Road Safety with LiDAR, Cameras, and AI - Promwad, accessed July 21, 2025, https://promwad.com/news/sensor-fusion-autonomous-transport-safety
  56. Collision Avoidance Mechanism for Swarms of Drones - MDPI, accessed July 21, 2025, https://www.mdpi.com/1424-8220/25/4/1141