Booil Jung

NVIDIA Omniverse NuRec 현실과 시뮬레이션의 융합

인공지능(AI) 기술은 가상 세계의 데이터를 처리하고 이해하는 단계를 넘어, 물리 법칙이 지배하는 현실 세계와 직접 상호작용하는 ‘피지컬 AI(Physical AI)’의 시대로 진입하고 있다.1 피지컬 AI는 현대 로보틱스, 자율주행차, 스마트 팩토리 및 지능형 인프라의 핵심 엔진으로, AI가 주변 환경을 인식하고, 이해하며, 그 안에서 행동하는 능력을 갖추는 패러다임의 전환을 의미한다.2 이러한 지능형 시스템은 현실 세계에서 직접 시행착오를 겪으며 학습하기에는 막대한 비용과 예측 불가능한 위험이 수반된다. 따라서 AI가 물리 법칙을 배우고 다양한 시나리오에 대한 대응 능력을 안전하게 연마할 수 있는 ‘평행 우주’, 즉 물리적으로 정확하고 극도로 사실적인 가상 환경의 필요성이 절대적으로 대두된다.1 이 가상 환경, 즉 시뮬레이션은 더 이상 개발 후반 단계의 단순한 테스트 베드가 아니라, AI 모델의 성능, 강건성, 그리고 안전성을 결정하는 핵심적인 훈련장(training ground)으로 자리매김하고 있다.

이러한 배경 속에서 컴퓨터 그래픽스와 AI 기술의 융합은 로보틱스와 자율 시스템 분야를 근본적으로 변화시키는 원동력이 되고 있다. 확장 가능하고 물리적으로 정확한 시뮬레이션과 AI의 추론 능력을 결합함으로써, 개발자들은 이전에는 불가능했던 복잡성과 규모를 갖춘 차세대 로봇 및 자율주행차를 구축할 수 있게 되었다.3 그러나 이 비전을 실현하는 데 있어 가장 큰 병목 현상 중 하나는 바로 방대한 시뮬레이션 수요를 충족시킬 수 있는 고품질 3D 환경을 신속하게 제작하는 것이었다.5 전통적인 수작업 기반의 3D 모델링 방식은 시간과 비용 측면에서 한계가 명확하며, 이는 피지컬 AI 개발의 속도를 저해하는 심각한 제약 요인으로 작용해왔다. NVIDIA는 이러한 문제를 해결하고 피지컬 AI로의 전환을 가속화하기 위한 전략적 필연성의 산물로서 NuRec 기술을 제시한다. 이는 단순한 그래픽스 기술의 발전을 넘어, NVIDIA의 거시적인 AI 전략을 뒷받침하는 핵심 인프라 기술로서의 중요성을 가진다.

NVIDIA Omniverse는 3D 워크플로우의 근본적인 혁신을 목표로 설계된 개발 플랫폼이다.7 그 핵심에는 픽사(Pixar)에서 개발한 오픈 소스 프레임워크인 USD(Universal Scene Description)와 NVIDIA의 실시간 레이 트레이싱 기술인 RTX가 자리 잡고 있다.9 Omniverse의 철학은 세 가지 핵심 원칙에 기반한다. 첫째, USD를 통한 완벽한 데이터 상호 운용성이다. 서로 다른 3D 소프트웨어 도구와 애플리케이션 간의 데이터 사일로를 허물고, 파괴적인 데이터 변환 과정 없이 원활한 협업을 가능하게 한다.10 둘째, 실시간 동시 협업이다. Nucleus와 같은 서비스를 통해 지리적으로 분산된 팀원들이 여러 애플리케이션에서 동일한 3D 씬을 동시에 편집하고 검토할 수 있다.9 셋째, 물리적으로 정확한 대규모 시뮬레이션이다. RTX 렌더러와 PhysX 물리 엔진을 통해 실제 세계와 동일한 법칙이 적용되는 가상 세계를 구축하고, 이를 산업용 디지털 트윈, 제품 개발, 공정 최적화, 운영 효율성 혁신에 활용한다.8

NVIDIA Omniverse NuRec(Neural Reconstruction)은 Omniverse 플랫폼의 비전을 현실로 만드는 데 있어 가장 중요한 기술적 돌파구 중 하나다. NuRec은 다중 센서 데이터, 즉 여러 장의 사진이나 차량에 장착된 카메라 영상을 입력받아, 신경망을 통해 현실 세계를 극도로 사실적인 3D 가상 환경으로 재구성하는 기술 라이브러리 및 API의 집합이다.5 NuRec의 가장 큰 의의는 속도에 있다. 전통적으로 숙련된 아티스트가 수일에서 수주에 걸쳐 수행하던 3D 환경 제작 작업을 거의 즉각적으로(instantly) 완료할 수 있도록 워크플로우를 혁신했다.5

NuRec은 단순한 3D 스캐닝이나 모델링 도구를 넘어선다. 이는 시뮬레이션의 사실성을 극대화하여 시뮬레이션 환경과 현실 세계 간의 차이, 즉 ‘Sim-to-Real’ 격차를 해소하는 데 핵심적인 역할을 한다. AI 모델이 NuRec으로 생성된 가상 환경에서 충분히 학습하면, 그 학습 결과가 현실 세계에서도 높은 성능으로 발현될 가능성이 커진다.3 결국 NuRec은 현실 세계를 Omniverse라는 디지털 우주로 흡수하는 빠르고 효율적인 포털(portal) 역할을 수행하며, 피지컬 AI와 산업 디지털화의 미래를 앞당기는 핵심 동력이라 할 수 있다.

NVIDIA Omniverse NuRec은 신경 재구성(Neural Reconstruction) 및 뉴럴 렌더링(Neural Rendering)을 위해 특별히 설계된 API와 소프트웨어 도구의 집합으로 정의된다.18 이 기술의 핵심 목표는 개발자가 이미 보유하고 있는 센서 데이터, 예를 들어 자율주행 차량 플릿(fleet)에서 수집된 카메라 영상이나 간단한 사진 촬영물을 활용하여, 상호작용이 가능한 고충실도의 디지털 트윈을 신속하게 생성하는 것이다. NuRec은 개발자가 재구성된 가상 환경 내에서 물리적으로는 불가능하거나 위험한 새로운 이벤트를 시뮬레이션하고, 가상의 카메라를 배치하여 새로운 시점(novel points of view)에서 센서 데이터를 렌더링할 수 있도록 지원한다.18

NuRec의 기능적 파이프라인은 크게 세 단계로 요약할 수 있다. 첫째, 데이터 준비 및 처리 단계로, 다양한 소스로부터 입력된 센서 데이터를 재구성에 적합한 형태로 정제하고 준비한다. 둘째, 3D 재구성 단계로, 처리된 데이터를 기반으로 장면의 기하학과 외형을 표현하는 3D 볼륨 표현을 생성한다. 셋째, 가우시안 기반 렌더링 단계로, 생성된 3D 표현을 Omniverse의 렌더링 파이프라인과 연결하여 시뮬레이션 환경 내에서 시각화하고 상호작용할 수 있도록 만든다.18

NuRec은 Omniverse 생태계 내에서 현실 세계와 가상 세계를 잇는 핵심적인 가교 역할을 수행한다. 그 중심에는 OpenUSD가 있다. NuRec 워크플로우의 최종 산출물은 항상 USD 또는 USDZ 포맷의 3D 에셋이다.5 이 USD 에셋은 Omniverse 생태계의 표준 데이터 형식으로서, 다양한 애플리케이션과 도구 간의 완벽한 상호 운용성을 보장하는 ‘디지털 청사진’과 같다.7 NuRec은 이질적인 현실 세계의 센서 데이터를 입력받아, Omniverse 생태계가 이해하고 활용할 수 있는 표준화된 USD 에셋으로 ‘번역’하는 역할을 수행한다. 따라서 NuRec의 아키텍처적 역할은 단순히 3D 모델을 만드는 것을 넘어, 현실 세계와 Omniverse 가상 세계 사이의 데이터 흐름을 자동화하고 표준화하는 파이프라인 그 자체에 있다. 이는 Omniverse 생태계의 확장성과 실용성을 극대화하는 매우 중요한 전략적 포지셔닝이다.

일단 USD 에셋으로 변환되면, 이 재구성된 환경은 Omniverse의 핵심 시뮬레이션 애플리케이션으로 원활하게 통합된다. 로보틱스 개발 및 검증을 위한 NVIDIA Isaac Sim과 자율주행 연구 및 개발을 위한 오픈소스 시뮬레이터인 CARLA가 대표적인 예다.3 개발자는 NuRec으로 생성된 USD 씬을 Isaac Sim이나 CARLA에 직접 로드하여, 그 안에서 로봇이나 자율주행 차량을 즉시 테스트하고 검증할 수 있다.3 이처럼 NuRec은 Omniverse 플랫폼을 구성하는 여러 SDK, API, 마이크로서비스 중 하나로서, 개발자가 3D 애플리케이션을 구축하는 데 사용하는 핵심 빌딩 블록(building block) 역할을 한다.7

NuRec 시스템은 기능적으로 세 가지 핵심 구성 요소로 나눌 수 있다.

  1. 데이터 전처리 및 수집 라이브러리: 성공적인 3D 재구성은 양질의 입력 데이터에서 시작된다. NuRec은 이 과정을 용이하게 하기 위해 Voxel51의 FiftyOne과 같은 외부 데이터 엔진과의 통합을 지원한다.3 이를 통해 개발자는 자체적으로 수집한 대규모 데이터셋을 효율적으로 관리하고, 재구성에 적합한 데이터를 선별하며, 재구성 결과물의 품질을 정량적으로 평가할 수 있다. 이 라이브러리들은 다운스트림 시뮬레이션 작업에 사용될 고품질 디지털 트윈을 생성하기 위한 첫 단계를 담당한다.18

  2. 3D 재구성 엔진: NuRec의 심장부로, 2D 이미지나 센서 데이터로부터 3D 장면을 표현하는 볼륨 데이터를 생성한다. 이 엔진은 3D 가우시안 스플래팅(3DGS)과 이를 NVIDIA가 확장한 3DGUT와 같은 최첨단 알고리즘을 기반으로 한다. 재구성된 볼륨 데이터는 .nurec과 같은 특수 포맷으로 저장될 수 있으며, 이는 장면의 기하학적 구조와 외형 정보를 압축적으로 담고 있다.22

  3. 뉴럴 렌더링 API (NuRec Rendering): 재구성된 3D 볼륨 데이터를 시각화하는 역할을 담당한다. 이 API는 Omniverse의 핵심 렌더러인 RTX 렌더러 내에 깊숙이 통합되어 있다. 이를 통해 NeRF, 3DGS, 3DGUT와 같은 다양한 신경 표현(neural primitives)을 기존의 메시(mesh) 기반 3D 에셋과 동일한 씬 안에서 함께 렌더링할 수 있다.23 이 기능은 Omniverse Kit의 확장(extension) 형태로 제공되며, 개발자는 USD의

    OmniNuRecVolumeAPI 스키마를 통해 렌더링 경계, 프록시 지오메트리, 색상 보정 등 다양한 렌더링 속성을 정밀하게 제어할 수 있다.23

NuRec의 기술적 기반을 이해하기 위해서는 먼저 뉴럴 렌더링과 역 렌더링의 개념을 파악해야 한다. 전통적인 컴퓨터 그래픽스의 핵심 과제는 순방향 렌더링(Forward Rendering)으로, 이는 잘 정의된 3D 모델(기하학, 재질, 조명 정보 포함)로부터 2D 이미지를 생성하는 과정이다.1 반면, 역 렌더링(Inverse Rendering)은 그 반대 방향의 문제로, 한 장 또는 여러 장의 2D 이미지로부터 3D 장면을 구성하는 내재적 속성들, 즉 기하학(geometry), 재질(materials), 조명(illumination)을 추론하는 훨씬 더 어렵고 비정형적인(ill-posed) 문제다.1 NuRec은 본질적으로 이 역 렌더링 문제에 대한 실용적이고 효율적인 해법을 제시한다.

뉴럴 렌더링은 이 과정을 딥러닝 모델, 즉 신경망을 사용하여 해결하는 접근 방식이다. 대표적인 초기 기술인 NeRF(Neural Radiance Fields)는 3D 장면을 연속적인 함수로 모델링한다. 이 함수는 3D 공간 좌표 $(x, y, z)$와 2D 시선 방향 $(\theta, \phi)$을 입력받아, 해당 지점의 색상(RGB)과 밀도(density) 값을 출력하는 다층 퍼셉트론(MLP)으로 구현된다.25 볼륨 렌더링 기법을 통해 이 함수를 적분함으로써, 어떤 새로운 시점에서든 사실적인 이미지를 합성할 수 있다. NuRec은 NeRF의 아이디어를 계승하면서도, 실시간 성능과 편집 용이성을 위해 다른 표현 방식을 채택했다.

3D 가우시안 스플래팅(3DGS)은 NuRec의 핵심 알고리즘으로, NeRF와 달리 장면을 명시적(explicit) 프리미티브의 집합으로 표현하여 혁신적인 성능을 달성했다.27

3DGS의 최적화 과정은 렌더링된 이미지 $\hat{I}$와 실제 이미지 $I$ 간의 시각적 차이를 정량화하는 손실 함수 $\mathcal{L}$을 최소화하는 방향으로 진행된다. 이 손실 함수는 두 가지 주요 구성 요소의 가중 합으로 이루어져 있다.29 \(\mathcal{L} = (1 - \lambda) \mathcal{L}_{L1} + \lambda \mathcal{L}_{D-SSIM}\)

NVIDIA는 표준 3DGS 기술을 자사의 플랫폼과 목표 애플리케이션에 최적화하기 위해 몇 가지 핵심적인 확장 기술을 개발했다.

NVIDIA가 NeRF 대신 3DGS를 NuRec의 핵심 기술로 채택한 것은 기술적 완벽성보다 산업 현장에서의 실용성을 우선시한 전략적 결정이다. NeRF는 종종 뷰 합성 품질 면에서 최고 수준으로 평가받지만, 느린 학습과 렌더링 속도는 실시간 디지털 트윈과 같은 산업용 애플리케이션에 치명적인 단점이다.27 반면 3DGS는 NeRF에 필적하는 시각적 품질을 유지하면서 실시간 렌더링이 가능하며, 가우시안이라는 명시적 프리미티브 덕분에 장면 편집이 용이하다.28 이러한 특성은 시뮬레이션 환경에서 가상 객체를 추가하거나 시나리오를 동적으로 변경해야 하는 산업 워크플로우의 요구사항과 완벽하게 부합한다. 이는 연구실의 기술을 산업 현장으로 이전하는 과정에서 발생하는 전형적인 실용주의적 트레이드오프를 보여주는 사례다.

특징 (Feature) NuRec (3DGS/3DGUT 기반) NeRF (신경 방사 필드) 전통적 사진측량 (Traditional Photogrammetry)
렌더링 속도 (Rendering Speed) 실시간 (Real-time) 28 느림 (Slow), 최적화 필요 27 실시간 (Real-time, 메시/텍스처 생성 후) 41
학습/처리 시간 (Training/Processing Time) 빠름 (Fast) 28 매우 느림 (Very Slow) 27 중간~느림 (Medium to Slow) 41
시각적 품질 (Visual Quality) 매우 높음, 사실적 (Very High, Photorealistic) 28 매우 높음, SOTA (Very High, State-of-the-art) 27 높음, 텍스처 품질에 의존 (High, Texture-dependent) 41
메모리/저장 공간 (Memory/Storage) 큼 (Large) 30 상대적으로 작음 (Relatively Small) 중간 (Medium)
동적 장면 처리 (Dynamic Scene Handling) 어려움, 별도 연구 필요 (Difficult, requires separate research) 29 어려움, 별도 연구 필요 불가능 (Impossible)
편집 용이성 (Editability) 높음 (명시적 표현) (High, explicit representation) 40 매우 낮음 (암시적 표현) (Very Low, implicit representation) 높음 (메시 기반) (High, mesh-based)
반사/투명 재질 (Reflective/Transparent Materials) 어려움 (Difficult) 상대적으로 우수 (Relatively better) 25 매우 어려움 (Very Difficult) 25
핵심 기술 (Core Technology) 미분 가능한 래스터화 (Differentiable Rasterization) 신경망, 볼륨 렌더링 (Neural Network, Volume Rendering) 특징점 매칭, 삼각측량 (Feature Matching, Triangulation)

NVIDIA Omniverse NuRec은 현실 세계의 센서 데이터로부터 상호작용 가능한 시뮬레이션 환경을 생성하기까지 체계적인 워크플로우를 제공한다. 이 과정은 데이터 수집부터 최종 배포까지 여러 단계로 구성되며, 오픈소스 도구와 NVIDIA의 독자 기술이 유기적으로 결합되어 있다.

워크플로우의 첫 단계는 현실 세계를 디지털 정보로 변환하는 데이터 수집이다.

희소 재구성 단계에서 얻은 초기 데이터를 바탕으로, 장면을 고밀도의 사실적인 3D 표현으로 변환하는 학습 과정이 진행된다.

학습이 완료된 3D 가우시안 씬은 Omniverse 생태계에서 표준 데이터 형식으로 활용될 수 있도록 USD 포맷으로 변환된다.

표준화된 USDZ 에셋은 Omniverse의 다양한 애플리케이션으로 손쉽게 배포되어 즉시 활용될 수 있다.

3D 재구성 기술은 입력 데이터가 부족한 영역이나 복잡한 기하학 구조에서 시각적 결함, 즉 아티팩트(artifact)나 갭(gap)이 발생하는 내재적 한계를 가진다.18 NVIDIA는 이 문제를 해결하기 위해 AI 기반 후처리 솔루션인

NuRec Fixer를 제공한다.

NVIDIA는 개발자들이 NuRec 워크플로우를 신속하게 이해하고 활용할 수 있도록, 사전 재구성된 장면들을 포함하는 NVIDIA Physical AI 데이터셋을 Hugging Face를 통해 공개적으로 제공한다.18

이처럼 NuRec 워크플로우는 오픈소스 생태계와의 공생과 AI 기반 후처리라는 두 가지 핵심 전략을 통해 완성도를 높인다. COLMAP과 CARLA 같은 검증된 오픈소스 도구를 파이프라인에 적극적으로 통합함으로써 개발 속도를 높이고 광범위한 커뮤니티의 접근성을 확보했다. 동시에, 3D 재구성 기술의 내재적 한계를 NuRec Fixer라는 AI 기반 후처리 기술로 보완함으로써, 단일 알고리즘의 완벽성에 의존하기보다는 각 단계에 최적화된 도구들을 조합하는 유연하고 실용적인 엔지니어링 전략을 보여준다.

NVIDIA Omniverse NuRec은 현실 세계를 빠르고 사실적으로 디지털화하는 능력을 바탕으로 다양한 산업 분야에서 혁신적인 애플리케이션을 가능하게 한다. 특히 자율주행, 로보틱스, 산업용 디지털 트윈, 합성 데이터 생성 분야에서 그 가치가 두드러진다.

자율주행 시스템의 안전성과 신뢰성을 확보하기 위해서는 수십억 마일에 달하는 주행 테스트가 필요하며, 이를 현실 세계에서 모두 수행하는 것은 불가능하다. NuRec은 이러한 과제를 해결하는 데 핵심적인 역할을 한다.

로봇이 복잡하고 예측 불가능한 현실 환경에서 효과적으로 작동하기 위해서는 시뮬레이션에서의 충분한 학습과 테스트가 필수적이다. NuRec은 이 과정의 효율성과 정확성을 극대화한다.

NuRec은 개별 제품이나 환경을 넘어, 전체 생산 라인이나 도시와 같은 복잡한 시스템의 디지털 트윈을 구축하고 운영하는 데 핵심적인 기술이다.

고성능 AI 모델을 훈련시키기 위해서는 방대하고 다양한, 그리고 정확하게 레이블링된 데이터가 필수적이다. 그러나 현실 세계에서 이러한 데이터를 수집하는 것은 프라이버시 문제, 희귀 사건의 부재, 막대한 레이블링 비용 등 여러 제약에 부딪힌다.52

이러한 응용 사례들은 NuRec이 단순한 3D 재구성 기술을 넘어, ‘데이터 플라이휠(Data Flywheel)’을 구동하는 핵심 엔진임을 보여준다. 이 플라이휠은 (1) 현실 데이터 수집 → (2) NuRec을 통한 시뮬레이션 환경 구축 → (3) 생성형 AI를 통한 합성 데이터 대량 생성 → (4) AI 모델 훈련 및 성능 향상 → (5) 향상된 AI를 통한 더 정교한 현실 데이터 수집 → (1)로 이어지는 선순환 구조다.18 이 구조에서 NuRec은 현실의 원시 데이터를 시뮬레이션 가능한 고품질 디지털 자산으로 변환하여 플라이휠을 처음으로 돌리는, 대체 불가능한 역할을 수행한다.

NVIDIA Omniverse NuRec은 3D 재구성 분야에서 혁신적인 성과를 이루었지만, 기술이 성숙해감에 따라 몇 가지 내재적 한계와 해결해야 할 도전 과제들이 존재한다. 이러한 한계점들은 역설적으로 NVIDIA와 관련 연구 커뮤니티의 미래 기술 개발 로드맵을 명확하게 보여주는 지표가 된다.

NuRec은 Omniverse 플랫폼에 깊숙이 통합되어 있지만, 현재 구현에는 몇 가지 구체적인 제약사항이 존재한다.

NuRec의 현재 한계점들은 NVIDIA의 미래 기술 개발 방향을 명확히 제시한다.

이처럼 NuRec의 현재 한계점들은 미해결 과제가 아니라, NVIDIA가 Cosmos WFM, PBR 연구, 차세대 Blackwell GPU, DGX Cloud와 같은 제품 및 연구 파이프라인을 통해 이미 해결책을 개발하고 있는 ‘차기 기술 로드맵’을 가리키는 이정표 역할을 한다. 이는 NVIDIA가 단기적인 제품 출시와 장기적인 연구 개발을 긴밀하게 연계하여 기술 생태계를 체계적으로 확장하고 있음을 보여준다.

NVIDIA Omniverse NuRec은 3D 가우시안 스플래팅이라는 최첨단 뉴럴 렌더링 기술을 산업 현장에 성공적으로 적용한 사례다. 이는 현실 세계를 고충실도의 디지털 트윈으로 전환하는 데 필요한 시간과 비용을 기존의 수 주에서 수 시간 단위로 획기적으로 단축시키는 기술적 변곡점을 만들었다. NuRec은 단순한 시각적 복제를 넘어, 로보틱스와 자율주행 시스템이 현실과 거의 구별 불가능한 가상 환경에서 학습하고 검증받을 수 있는 길을 열었다. 이를 통해 AI 개발의 가장 큰 난제 중 하나였던 ‘Sim-to-Real’ 문제, 즉 시뮬레이션에서 얻은 학습 결과를 현실 세계로 효과적으로 이전하는 문제를 해결하는 데 결정적인 기여를 하고 있다.

NuRec은 피지컬 AI 개발의 핵심 병목이었던 ‘사실적인 대규모 가상 세계의 부족’ 문제를 정면으로 해결함으로써, AI가 물리 세계와 상호작용하는 능력을 기하급수적으로 발전시킬 거대한 잠재력을 가지고 있다. 로봇과 자율주행차는 이제 NuRec이 생성한 무한에 가까운 가상 세계에서 안전하게 실패하고, 배우고, 진화할 수 있게 되었다.

더 나아가, NuRec은 공장, 도시, 인프라, 심지어 인체에 이르기까지 현실 세계의 모든 것을 디지털 트윈으로 만들고 시뮬레이션하려는 ‘산업 메타버스(Industrial Metaverse)’ 비전을 현실로 만드는 근간 기술이다. 이는 제품의 설계, 제조, 운영, 유지보수에 이르는 산업 전 과정의 패러다임을 바꿀 것이다. 가상 환경에서 모든 것을 미리 시뮬레이션하고 최적화함으로써 기업은 비용을 절감하고, 혁신을 가속화하며, 지속 가능성을 높일 수 있다.

NVIDIA Omniverse NuRec은 현실과 가상의 경계를 허물고 두 세계를 유기적으로 연결하는 중요한 기술적 이정표다. 그러나 현재의 성공은 거대한 변화의 시작에 불과하다. 향후 연구는 현재의 정적이고 시각적인 재구성을 넘어, 동적인 상호작용, 물리적으로 타당한 재질 속성, 그리고 장면의 의미론적 이해(semantic understanding)까지 포함하는 총체적인 세계 모델(holistic world model)을 구축하는 방향으로 나아가야 한다.

궁극적으로 NuRec과 Omniverse 플랫폼은 생성형 AI와의 완전한 융합을 통해, 단순히 현실을 ‘재구성(reconstruction)’하는 단계를 넘어, 사용자의 의도에 따라 가상 세계를 능동적으로 ‘창조(creation)’하고 변형하는 영역으로 확장될 것이다. 현실 데이터로부터 학습하되, 그 한계를 뛰어넘어 무한한 가능성을 시뮬레이션하는 것, 이것이 NuRec과 Omniverse가 열어갈 피지컬 AI 시대의 진정한 미래가 될 것이다.

  1. NVIDIA Research Shapes Physical AI, 8월 19, 2025에 액세스, https://blogs.nvidia.com/blog/physical-ai-research-siggraph-2025/
  2. Nvidia pushes “Physical AI” with new Blackwell hardware and AI models - The Decoder, 8월 19, 2025에 액세스, https://the-decoder.com/nvidia-pushes-physical-ai-with-new-blackwell-hardware-and-ai-models/
  3. NVIDIA Opens Portals to World of Robotics With New Omniverse Libraries, Cosmos Physical AI Models and AI Computing Infrastructure, 8월 19, 2025에 액세스, https://nvidianews.nvidia.com/news/nvidia-opens-portals-to-world-of-robotics-with-new-omniverse-libraries-cosmos-physical-ai-models-and-ai-computing-infrastructure
  4. Nvidia Unveils Cosmos Reason AI to Give Robots Human-Like Thinking and Planning Skills, 8월 19, 2025에 액세스, https://www.thehansindia.com/tech/nvidia-unveils-cosmos-reason-ai-to-give-robots-human-like-thinking-and-planning-skills-996242
  5. How to Instantly Render Real-World Scenes in Interactive …, 8월 19, 2025에 액세스, https://developer.nvidia.com/blog/how-to-instantly-render-real-world-scenes-in-interactive-simulation/
  6. NVIDIA Opens Portals to World of Robotics With New Omniverse Libraries, Cosmos Physical AI Models and AI Computing Infrastructure - Stock Titan, 8월 19, 2025에 액세스, https://www.stocktitan.net/news/NVDA/nvidia-opens-portals-to-world-of-robotics-with-new-omniverse-m3l0104hz8jn.html
  7. developer.nvidia.com, 8월 19, 2025에 액세스, https://developer.nvidia.com/omniverse#:~:text=NVIDIA%20Omniverse%E2%84%A2%20is%20a,OpenUSD)%20and%20NVIDIA%20RTX%E2%84%A2. and NVIDIA RTX™.)
  8. Develop on NVIDIA Omniverse Platform, 8월 19, 2025에 액세스, https://developer.nvidia.com/omniverse
  9. NVIDIA Omniverse, 8월 19, 2025에 액세스, https://docs.nvidia.com/omniverse/index.html
  10. NVIDIA Omniverse Enterprise Dell USA, 8월 19, 2025에 액세스, https://www.dell.com/en-us/lp/nvidia-omniverse
  11. NVIDIA Omniverse Foundational Technology Montage I GTC Spring 2025 Edition - YouTube, 8월 19, 2025에 액세스, https://www.youtube.com/watch?v=u5TNCt45Q90
  12. Nvidia Omniverse - Wikipedia, 8월 19, 2025에 액세스, https://en.wikipedia.org/wiki/Nvidia_Omniverse
  13. NVIDIA Omniverse, could someone explain its use and what it does in Layman’s term : r/VisionPro - Reddit, 8월 19, 2025에 액세스, https://www.reddit.com/r/VisionPro/comments/1biiu52/nvidia_omniverse_could_someone_explain_its_use/
  14. Neural Concept Demonstrates Engineering AI Platform Integrated with NVIDIA Omniverse Blueprint at NVIDIA GTC, Accelerating Product Development, 8월 19, 2025에 액세스, https://www.neuralconcept.com/post/neural-concept-demonstrates-engineering-ai-platform-integrated-with-nvidia-omniverse-blueprint-at-nvidia-gtc-accelerating-product-development
  15. Neural Reconstruction for Robotics and Autonomous Vehicles - YouTube, 8월 19, 2025에 액세스, https://www.youtube.com/watch?v=e3dfXj6ATA0
  16. NVIDIA announces new Omniverse libraries and Cosmos WFMs - Engineering.com, 8월 19, 2025에 액세스, https://www.engineering.com/nvidia-announces-new-omniverse-libraries-and-cosmos-wfms/
  17. Isaac Sim - Robotics Simulation and Synthetic Data Generation - NVIDIA Developer, 8월 19, 2025에 액세스, https://developer.nvidia.com/isaac/sim
  18. Accelerating AV Simulation with Neural Reconstruction and World Foundation Models, 8월 19, 2025에 액세스, https://developer.nvidia.com/blog/accelerating-av-simulation-with-neural-reconstruction-and-world-foundation-models/
  19. NVIDIA’s Omniverse NuRec Revolutionizes Real-World Scene …, 8월 19, 2025에 액세스, https://blockchain.news/news/nvidia-omniverse-nurec-revolutionizes-real-world-scene-simulation
  20. Neural Volume Rendering - Isaac Sim Documentation, 8월 19, 2025에 액세스, https://docs.isaacsim.omniverse.nvidia.com/latest/assets/usd_assets_nurec.html
  21. NVIDIA Announces NuRec Gaussian Splatting Libraries at SIGGRAPH - Radiance Fields, 8월 19, 2025에 액세스, https://radiancefields.com/nvidia-announces-nurec-libraries-at-siggraph
  22. nvidia/PhysicalAI-Autonomous-Vehicles-NuRec · Datasets at …, 8월 19, 2025에 액세스, https://huggingface.co/datasets/nvidia/PhysicalAI-Autonomous-Vehicles-NuRec
  23. Neural (NuRec) Rendering — Omniverse Materials and Rendering, 8월 19, 2025에 액세스, https://docs.omniverse.nvidia.com/materials-and-rendering/latest/neural-rendering.html
  24. Omniverse Materials and Rendering, 8월 19, 2025에 액세스, https://docs.omniverse.nvidia.com/materials-and-rendering/latest/materials.html
  25. What Are Neural Radiance Fields - KIRI Engine, 8월 19, 2025에 액세스, https://www.kiriengine.app/blog/explained/what-are-neural-radiance-fields
  26. PBR-NeRF: Inverse Rendering with Physics-Based Neural Fields - CVF Open Access, 8월 19, 2025에 액세스, https://openaccess.thecvf.com/content/CVPR2025/papers/Wu_PBR-NeRF_Inverse_Rendering_with_Physics-Based_Neural_Fields_CVPR_2025_paper.pdf
  27. What is 3D Reconstruction? NVIDIA Glossary, 8월 19, 2025에 액세스, https://www.nvidia.com/en-us/glossary/3d-reconstruction/
  28. Radiance Fields (Gaussian Splatting and NeRFs), 8월 19, 2025에 액세스, https://radiancefields.com/
  29. Gaussian splatting - Wikipedia, 8월 19, 2025에 액세스, https://en.wikipedia.org/wiki/Gaussian_splatting
  30. Introduction to 3D Gaussian Splatting - Hugging Face, 8월 19, 2025에 액세스, https://huggingface.co/blog/gaussian-splatting
  31. Understanding and Exploring 3D Gaussian Splatting: A Comprehensive Overview - Medium, 8월 19, 2025에 액세스, https://medium.com/@logessiva/understanding-and-exploring-3d-gaussian-splatting-a-comprehensive-overview-b4004f28ef1c
  32. 3D Gaussian Splatting Introduction – Paper Explanation & Training on Custom Datasets with NeRF Studio Gsplats - LearnOpenCV, 8월 19, 2025에 액세스, https://learnopencv.com/3d-gaussian-splatting/
  33. Gaussian Splatting: A Deep Dive into Transforming 3D Data for Real-Time Visualization, 8월 19, 2025에 액세스, https://karthick.ai/blog/2024/Gaussian-Splatting/
  34. Introduction to Loss Functions DataRobot Blog, 8월 19, 2025에 액세스, https://www.datarobot.com/blog/introduction-to-loss-functions/
  35. PyTorch Loss Functions: The Ultimate Guide - Neptune.ai, 8월 19, 2025에 액세스, https://neptune.ai/blog/pytorch-loss-functions
  36. Loss Functions in Machine Learning Explained - DataCamp, 8월 19, 2025에 액세스, https://www.datacamp.com/tutorial/loss-function-in-machine-learning
  37. nv-tlabs/3dgrut: Ray tracing and hybrid rasterization of … - GitHub, 8월 19, 2025에 액세스, https://github.com/nv-tlabs/3dgrut
  38. The Biggest Breakthrough in Gaussian Splatting - A 3DGRUT First Impressions and Tutorial, 8월 19, 2025에 액세스, https://www.youtube.com/watch?v=FI5JluMoBDE
  39. Why Neural Radiance Fields (NeRF) is the Future of 3D Rendering and Visualization by Thiriloganathan Manimohan Medium, 8월 19, 2025에 액세스, https://medium.com/@manimohan517/neural-radiance-fields-nerf-7fe13120086a
  40. [2403.11134] Recent Advances in 3D Gaussian Splatting - arXiv, 8월 19, 2025에 액세스, https://arxiv.org/abs/2403.11134
  41. Did a comparison test between photogrammetry and Artec3d Space Spider : r/3DScanning, 8월 19, 2025에 액세스, https://www.reddit.com/r/3DScanning/comments/1m3lhq3/did_a_comparison_test_between_photogrammetry_and/
  42. Photogrammetry vs 3D scanning for creating a 3D model - Artec 3D, 8월 19, 2025에 액세스, https://www.artec3d.com/learning-center/photogrammetry-vs-3d-scanning
  43. What is a NeRF? - Mapillary, 8월 19, 2025에 액세스, https://help.mapillary.com/hc/en-us/articles/17262288782108-What-is-a-NeRF
  44. LiDAR vs Photogrammetry: Key Differences & Use Cases - Matterport, 8월 19, 2025에 액세스, https://matterport.com/blog/lidar-vs-photogrammetry
  45. [2503.01774] Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models - arXiv, 8월 19, 2025에 액세스, https://arxiv.org/abs/2503.01774
  46. Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models, 8월 19, 2025에 액세스, https://research.nvidia.com/labs/toronto-ai/difix3d
  47. nv-tlabs/Difix3D: [CVPR 2025 Oral & Award Candidate] Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models - GitHub, 8월 19, 2025에 액세스, https://github.com/nv-tlabs/Difix3D
  48. Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models - arXiv, 8월 19, 2025에 액세스, https://arxiv.org/html/2503.01774v1
  49. [Literature Review] Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models - Moonlight, 8월 19, 2025에 액세스, https://www.themoonlight.io/en/review/difix3d-improving-3d-reconstructions-with-single-step-diffusion-models
  50. Revolutionizing Interactive Simulation with NVIDIA Omniverse NuRec and 3DGUT - AInvest, 8월 19, 2025에 액세스, https://www.ainvest.com/news/revolutionizing-interactive-simulation-nvidia-omniverse-nurec-3dgut-2508/
  51. Delivering digital twins with Precision: a modern approach for a new kind of healthcare - Dell, 8월 19, 2025에 액세스, https://www.delltechnologies.com/asset/sv-se/products/workstations/customer-stories-case-studies/mark-iii-systems-case-study.pdf
  52. Synthetic Data for AI & 3D Simulation Workflows Use Case - NVIDIA, 8월 19, 2025에 액세스, https://www.nvidia.com/en-us/use-cases/synthetic-data/
  53. PBR-NeRF: Inverse Rendering with Physics-Based Neural Fields - Bohrium, 8월 19, 2025에 액세스, https://www.bohrium.com/paper-details/pbr-nerf-inverse-rendering-with-physics-based-neural-fields/1075661722464813075-108597
  54. PBR-NeRF, 8월 19, 2025에 액세스, https://s3anwu.github.io/pbrnerf/
  55. [2505.08438] A Survey of 3D Reconstruction with Event Cameras - arXiv, 8월 19, 2025에 액세스, https://arxiv.org/abs/2505.08438
  56. A Survey of 3D Reconstruction with Event Cameras: From Event-based Geometry to Neural 3D Rendering - arXiv, 8월 19, 2025에 액세스, https://arxiv.org/html/2505.08438v1
  57. A Comprehensive Review of Vision-Based 3D Reconstruction Methods - PMC, 8월 19, 2025에 액세스, https://pmc.ncbi.nlm.nih.gov/articles/PMC11014007/
  58. The Future of Robotics: 3D Reconstruction Techniques - Number Analytics, 8월 19, 2025에 액세스, https://www.numberanalytics.com/blog/future-robotics-3d-reconstruction-techniques