Booil Jung

NVIDIA Isaac Lab

NVIDIA Isaac Lab은 로봇 학습(Robot Learning) 연구의 공통 워크플로우를 통합하고 단순화하기 위해 설계된 오픈소스 통합 프레임워크다.1 이는 강화학습(Reinforcement Learning, RL), 모방학습(Imitation Learning, IL), 그리고 모션 플래닝(Motion Planning)과 같은 복잡한 작업을 위한 포괄적인 도구 모음을 제공한다.3 Isaac Lab은 단순히 가상 환경을 제공하는 시뮬레이터를 넘어, 로봇의 지능형 정책(policy) 훈련을 가속화하고 최적화하는 데 초점을 맞춘 ‘학습 프레임워크’로서의 정체성을 명확히 한다.4

Isaac Lab의 핵심 비전은 시뮬레이션과 현실 세계 간의 간극, 즉 ‘Sim-to-Real Gap’을 효과적으로 해소하는 데 있다. 이를 위해 두 가지 핵심 기술을 기반으로 한다. 첫째는 NVIDIA PhysX® 엔진을 통한 고충실도 물리 시뮬레이션이며, 둘째는 NVIDIA RTX™ 기술을 활용한 사실적 렌더링이다.1 이 두 기술의 결합은 시뮬레이션 환경이 현실 세계의 물리 법칙과 시각적 특성을 매우 정밀하게 모방하도록 하여, 시뮬레이션에서 훈련된 정책이 별도의 수정 없이 실제 로봇에 성공적으로 적용될 수 있는 가능성을 극대화한다. 궁극적으로 Isaac Lab은 개발자와 연구자들이 더 적은 비용과 시간으로, 더 지능적이고 강건한 로봇을 효율적으로 구축하도록 돕는 것을 목표로 한다.1

Isaac Lab을 정확히 이해하기 위해서는 NVIDIA가 구축하고 있는 거대한 로보틱스 생태계 내에서 그 위상을 파악하는 것이 중요하다. 이 생태계는 여러 계층으로 구성된 정교한 구조를 가진다.

가장 근간이 되는 플랫폼은 3D 시뮬레이션 및 협업을 위한 NVIDIA Omniverse다.6 Omniverse는 OpenUSD(Universal Scene Description)를 기반으로 다양한 3D 애플리케이션과 데이터를 통합하는 인프라 역할을 한다. 이 Omniverse 플랫폼 위에 로보틱스 시뮬레이션에 특화된 레퍼런스 애플리케이션으로 NVIDIA Isaac Sim이 구축된다.7 Isaac Sim은 로봇 모델 임포트, 센서 시뮬레이션, ROS(Robot Operating System) 연동 등 로봇 개발에 필요한 포괄적인 기능을 제공한다.

Isaac Lab은 바로 이 Isaac Sim 위에 구축된, 더욱 경량화되고 특화된 샘플 애플리케이션이다.4 Isaac Sim이 제공하는 세 가지 핵심 워크플로우, 즉 (1) 합성 데이터 생성(Synthetic Data Generation), (2) Software-in-the-Loop(SIL) 테스트, (3) 로봇 학습 중, Isaac Lab은 세 번째 ‘로봇 학습’ 워크플로우를 전담하는 핵심 구성요소다.7 특히 로봇 파운데이션 모델 훈련과 같은 대규모 학습 작업에 최적화되어 있다.9 이처럼 NVIDIA의 로보틱스 스택은 Omniverse라는 기반 위에 Isaac Sim이라는 범용 시뮬레이터를 두고, 그 위에 Isaac Lab(학습), Isaac Perceptor(인식), Isaac Manipulator(조작) 등 특정 목적에 특화된 애플리케이션을 배치하는 계층적 구조를 통해 전문성과 확장성을 동시에 확보한다.4

Isaac Lab은 NVIDIA의 이전 로봇 학습 도구들의 공식적인 후속 프레임워크다. 이는 Isaac Gym, OmniIsaacGymEnvs, Orbit과 같은 기존 프레임워크들을 대체하며, 이들은 이제 Isaac Lab으로의 통합 개발을 위해 공식적으로 지원 중단(deprecated)되었다.3 이러한 진화 과정을 살펴보는 것은 Isaac Lab의 설계 철학을 이해하는 데 중요한 단서를 제공한다.

과거 Isaac Gym은 GPU 기반 물리 시뮬레이션의 엄청난 잠재력을 보여준 선구적인 도구였다. 수천 개의 환경을 병렬로 시뮬레이션하며 RL 훈련 속도를 획기적으로 단축시켰으나, 이는 어디까지나 고성능 물리 엔진의 성능을 시연하는 ‘프리뷰 릴리즈’의 성격이 강했다.9 그 결과, 사실적인 렌더링, 변형체(deformable object)와의 상호작용, ROS 지원 등 범용 로보틱스 시뮬레이터가 갖추어야 할 여러 기능이 부족했다.9

Isaac Lab은 Isaac Gym의 핵심 장점인 대규모 병렬 처리 성능을 그대로 계승하면서, Isaac Sim과의 완전한 통합을 통해 그 한계를 극복했다. 이를 통해 사실적인 RTX 렌더링, 카메라, LiDAR 등 다양한 센서 시뮬레이션, 표준화된 ROS/ROS2 브릿지, 그리고 모듈식 환경 설계 기능까지 갖추게 되었다.9 즉, 순수한 물리 시뮬레이션 엔진의 성능 과시에 머물렀던 Isaac Gym과 달리, Isaac Lab은 로봇 개발의 전 과정을 지원하는 완전한 ‘통합 학습 프레임워크’로 진화한 것이다.

이러한 변화는 단순히 새로운 제품을 출시한 것을 넘어, NVIDIA가 파편화되어 있던 로보틱스 학습 도구들을 Isaac Sim이라는 단일 플랫폼 아래로 전략적으로 통합하고 있음을 보여준다. 과거 개발자들은 Isaac Gym, Orbit, Isaac Sim 등 여러 도구 사이에서 혼란을 겪고 통합에 노력을 기울여야 했다. 그러나 이제 Isaac Sim은 ‘레퍼런스 애플리케이션’으로, Isaac Lab은 그 위의 ‘학습 최적화 애플리케이션’으로 역할이 명확히 구분된다. 이는 개발자에게는 명확하고 통일된 개발 경로를 제공하고, NVIDIA에게는 Omniverse를 중심으로 한 강력하고 종속적인 생태계를 구축하려는 고도의 전략적 움직임으로 분석할 수 있다.

Isaac Lab의 강력한 기능은 네 가지 핵심 기술의 유기적인 결합 위에 구축되어 있다. 이 기술들은 각각 시뮬레이션의 뼈대, 구조, 물리, 그리고 시각을 담당하며, 함께 작동하여 고충실도의 가상 세계를 창조한다.

Isaac Lab의 소프트웨어 아키텍처는 로봇 학습의 엔드투엔드 워크플로우를 체계적으로 지원하도록 설계되었다. 이 아키텍처는 크게 7개의 핵심 구성요소로 분해하여 이해할 수 있다.15

  1. 에셋 입력 (Asset Input): 로봇(URDF, MJCF)과 환경(USD) 에셋을 시뮬레이션으로 가져오는 단계다.
  2. 환경 설정 (Configuration): Python 설정 클래스(config class)를 통해 각 에셋의 속성과 장면 구성을 정의한다.
  3. 태스크 설계 (Task Design): RL 태스크의 MDP(Markov Decision Process) 요소를 정의한다.
  4. Gymnasium 등록 (Register with Gymnasium): 설계된 환경을 표준 Gymnasium 인터페이스에 등록하여 재사용성을 높인다.
  5. 환경 래핑 (Environment Wrapping): 환경의 동작을 수정하거나 RL 라이브러리와의 호환성을 맞추기 위해 래퍼(wrapper)를 적용한다.
  6. 훈련 실행 (Run Training): 정의된 환경과 에이전트를 사용하여 정책 학습을 수행한다.
  7. 테스트 실행 (Run Testing): 훈련된 정책의 성능을 평가한다.

이러한 구성요소들의 중심에는 InteractiveScene이라는 핵심 클래스가 존재한다.17

InteractiveScene은 시뮬레이션 내의 모든 개체(로봇, 지형, 센서 등)를 하나의 객체로 통합하여 관리한다. 이는 수천 개의 복제된 환경에 있는 모든 로봇의 상태를 한 번에 읽거나, 모든 로봇에 동시에 명령을 내리는 등의 작업을 효율적으로 처리하게 해준다.

데이터 흐름은 Isaac Sim과 Isaac Lab 간의 긴밀한 상호작용으로 이루어진다.15

  1. Isaac Sim (물리 엔진): 현재 로봇의 관절 위치, 속도 등 물리적 상태를 계산하여 Tensor 형태로 Isaac Lab에 제공한다.
  2. Isaac Lab (학습 프레임워크): Sim으로부터 받은 물리적 상태에 센서 데이터, 목표 정보 등을 결합하여 정책이 입력으로 사용할 ‘관측(Observation)’을 구성한다. 또한, 현재 상태를 바탕으로 ‘보상(Reward)’을 계산한다.
  3. RL 에이전트 (정책): Isaac Lab이 제공한 관측을 입력받아 다음 ‘행동(Action)’을 출력한다.
  4. Isaac Lab: 에이전트가 출력한 행동을 로봇이 실행할 수 있는 제어 명령(예: 관절 토크)으로 변환한다.
  5. Isaac Sim: Lab으로부터 제어 명령을 받아 로봇에 적용하고, 다음 시간 스텝의 물리 시뮬레이션을 수행한다. 이 과정이 반복되며 학습이 진행된다.

Isaac Lab은 사용자의 숙련도와 프로젝트의 복잡성에 따라 선택할 수 있는 두 가지 주요 환경 설계 워크플로우를 제공한다.15

이러한 이중 워크플로우 제공은 Isaac Lab의 정교한 설계 철학을 보여준다. 한편으로는 “배터리 포함(Batteries-included)” 접근법을 통해 사전 구성된 수많은 로봇, 환경, 태스크를 제공하여 사용자가 복잡한 설정 없이 즉시 학습을 시작할 수 있도록 진입 장벽을 낮춘다.2 다른 한편으로는, 두 가지 워크플로우와 완전한 오픈소스화를 통해 프레임워크의 모든 요소를 사용자가 직접 수정하고 확장할 수 있는 높은 수준의 개방성을 보장한다.2 이는 ‘빠른 시작’을 원하는 초심자와 ‘깊이 있는 연구’를 원하는 전문가라는 상반된 두 사용자 그룹의 요구를 동시에 만족시키려는 전략적 선택이다.

Isaac Lab의 가장 두드러진 특징이자 핵심 경쟁력은 GPU 가속을 통한 대규모 병렬 시뮬레이션 능력에 있다.1 Isaac Lab의 강화학습 패러다임은 수천 개의 독립적인 환경을 동시에 실행하여 방대한 양의 경험 데이터를 단시간에 수집하는 것을 전제로 한다.21 이는 PhysX 물리 엔진이 CPU가 아닌 GPU에서 직접 실행되기 때문에 가능하다.

이러한 접근 방식은 로봇 학습, 특히 데이터 효율성이 낮은 on-policy 강화학습 알고리즘의 훈련 시간을 획기적으로 단축시킨다. 예를 들어, Boston Dynamics의 Spot 사족보행 로봇의 보행 정책을 훈련하는 사례에서, 4,096개의 환경을 병렬로 시뮬레이션하여 초당 85,000에서 95,000 프레임(FPS)에 달하는 놀라운 데이터 수집 속도를 달성했다.22 이는 단일 환경에서 순차적으로 데이터를 수집하는 방식에 비해 수백, 수천 배 빠른 학습을 가능하게 한다.23

더 나아가, Isaac Lab은 단일 GPU를 넘어 다중 GPU(Multi-GPU) 및 다중 노드(Multi-Node) 훈련까지 지원하여 학습 규모를 클러스터 수준으로 확장할 수 있다.2 이는 PyTorch의 DistributedDataParallel (Torchrun)이나 JAX의 분산 컴퓨팅 기능을 활용하여 구현되며, 각 GPU 프로세스가 독립적인 시뮬레이션 인스턴스를 소유하고 경사도(gradient) 업데이트 시에만 동기화하는 방식으로 작동한다.24

이러한 대규모 병렬 처리 능력은 Isaac Lab의 성능에 대한 독특한 관점을 제시한다. 커뮤니티에서는 종종 단일 환경을 실행할 때 Isaac Sim이 MuJoCo나 PyBullet과 같은 경량 시뮬레이터보다 현저히 느리다는 지적이 제기된다.25 이는 Omniverse 플랫폼의 오버헤드와 고품질 렌더링에 따른 당연한 결과다. 그러나 Isaac Lab의 진정한 가치는 단일 인스턴스의 지연 시간(latency)이 아닌, 수천 개의 환경을 동시에 처리할 때 나타나는 압도적인 총 처리량(throughput)에 있다. 즉, Isaac Lab은 전통적인 시뮬레이터와는 근본적으로 다른 문제, 즉 ‘RL을 위한 대규모 데이터 생성’이라는 문제를 해결하기 위해 의도적으로 다른 성능 트레이드오프를 선택한 것이다. 이는 Isaac Lab이 ‘시뮬레이터’라기보다는 ‘RL을 위한 데이터 생성 엔진’이라는 본질을 명확히 보여준다.

시뮬레이션에서 성공적으로 학습된 정책이 실제 로봇에서 제대로 작동하지 못하는 ‘Sim-to-Real Gap’은 로봇 학습의 오랜 난제다. Isaac Lab은 이 문제를 해결하기 위한 핵심 기술로 도메인 무작위화(Domain Randomization)를 적극적으로 활용한다.9 도메인 무작위화는 시뮬레이션 환경의 물리적, 시각적 파라미터를 훈련 중에 의도적으로 무작위 변경하여, 학습된 정책이 특정 시뮬레이션 환경에 과적합(overfitting)되지 않고 다양한 현실 세계의 불확실성에 대해 강건함(robustness)을 갖도록 만드는 기법이다.

Isaac Lab에서는 EventTermCfg라는 설정 클래스를 통해 체계적으로 도메인 무작위화를 구현할 수 있다.27 사용자는 무작위화할 대상(예: 로봇 관절의 마찰 계수, 모터의 구동력, 물체의 질량)과 무작위화 방식(예: 균등 분포, 정규 분포), 그리고 적용 시점(예: 시뮬레이션 시작 시 한 번, 또는 매 에피소드 리셋 시)을 유연하게 정의할 수 있다.28

실제 Sim-to-Real 성공 사례들은 도메인 무작위화의 효과를 명확히 보여준다. Spot 로봇의 보행 정책 훈련 시에는 로봇의 질량, 관성, 마찰 계수 등 동역학 관련 파라미터들이 무작위화되었다.22 UR10e 로봇의 기어 조립 작업 훈련 시에는 로봇 동역학뿐만 아니라 컨트롤러 게인, 그리고 정책에 입력되는 관측값에 대한 노이즈까지 추가하여 현실에서 발생할 수 있는 다양한 변동성에 대비했다.29 이러한 체계적인 무작위화를 통해 훈련된 정책은 시뮬레이션과 현실 사이의 미세한 차이를 극복하고, 별도의 미세 조정 없이도 실제 환경에서 성공적으로 임무를 수행할 수 있게 된다.

현대의 지능형 로봇은 세상을 인지하기 위해 다양한 센서에 의존한다. 따라서 시뮬레이션이 현실과 유사한 센서 데이터를 생성하는 능력은 Sim-to-Real 성공의 필수 조건이다. Isaac Lab은 Isaac Sim의 강력한 센서 시뮬레이션 기능을 기반으로, 매우 높은 충실도의 센서 데이터를 제공한다.

Isaac Lab은 그 자체로 합성 데이터 생성(SDG) 도구는 아니지만, 그 기반이 되는 Isaac Sim은 Omniverse Replicator라는 강력한 SDG 프레임워크를 포함하고 있다.7 Isaac Lab의 학습 환경과 워크플로우는 이러한 SDG 파이프라인과 긴밀하게 연계될 수 있다.

예를 들어, Isaac Sim의 MobilityGen 확장 기능은 다양한 물리 기반 모션 데이터를 생성하는 데 사용될 수 있다.30 사용자는 원격 조작이나 자동화된 경로 계획을 통해 로봇의 움직임을 생성하고, 이때 발생하는 로봇의 상태, 포즈, 속도, 그리고 센서 이미지 등 방대한 데이터를 수집할 수 있다. 이 데이터는 자율 이동 로봇(AMR), 사족보행 로봇, 휴머노이드 등의 동작 정책을 훈련하는 데 귀중한 자료로 활용된다.

더 나아가, 이렇게 생성된 합성 데이터는 NVIDIA Cosmos와 같은 월드 파운데이션 모델(WFM)과 결합하여 그 사실성을 한층 더 높일 수 있다.7 또한, GR00T N1.5와 같은 거대 Vision-Language-Action 모델을 특정 작업에 맞게 후속 훈련(post-train)하는 데 사용되어, 로봇의 일반화 성능과 작업 수행 능력을 극대화하는 데 기여할 수 있다.7 이는 Isaac Lab이 단순한 정책 훈련을 넘어, 차세대 Physical AI 모델 개발을 위한 거대한 데이터 생성 엔진의 일부로서 기능함을 시사한다.

Isaac Lab은 특정 RL 알고리즘이나 라이브러리에 종속되지 않고, 유연한 아키텍처를 통해 다양한 외부 RL 프레임워크와의 연동을 지원한다. 현재 공식적으로 지원하고 예제를 제공하는 주요 라이브러리는 SKRL, RSL-RL, RL-Games, Stable-Baselines3 등 네 가지다.31 각 라이브러리는 고유한 장단점을 가지고 있어, 개발자는 자신의 프로젝트 요구사항에 가장 적합한 도구를 선택해야 한다.

기능 RL-Games RSL-RL SKRL Stable-Baselines3  
주요 알고리즘 PPO, SAC, A2C PPO, Distillation 광범위한 목록 광범위한 목록  
벡터화 훈련 지원 지원 지원 미지원  
분산 훈련 지원 지원 지원 미지원  
지원 ML 프레임워크 PyTorch PyTorch PyTorch, JAX PyTorch  
멀티 에이전트 지원 PPO PPO PPO + 다중 에이전트 알고리즘 외부 프로젝트 통해 지원  
문서화 수준 낮음 낮음 포괄적 매우 상세함  
커뮤니티 규모 작음 작음 작음  
Isaac Lab 예제 수 많음 많음 많음 적음  
훈련 성능 (초) 207 199 208 322  

표 1: Isaac Lab 지원 강화학습 프레임워크 비교. 훈련 성능은 Isaac-Humanoid-v0 환경에서 4096개 병렬 환경으로 6550만 스텝 훈련 시 소요 시간(초)을 의미한다.32

이 표는 중요한 선택 기준을 제시한다. 최고의 훈련 속도를 원한다면 RSL-RL이 가장 좋은 선택이다. JAX 프레임워크를 사용하거나 다양한 멀티 에이전트 알고리즘이 필요하다면 SKRL이 유일한 대안이다. 반면, 방대한 문서와 거대한 커뮤니티의 지원을 바탕으로 안정적인 개발을 원한다면 Stable-Baselines3가 적합하지만, Isaac Lab의 핵심인 대규모 병렬 훈련(벡터화)을 지원하지 않아 성능 저하를 감수해야 한다. RL-Games와 RSL-RL은 Isaac Lab에서 가장 많은 예제를 제공하며 좋은 성능을 보여주지만, 문서화가 부족하여 심층적인 사용에 어려움이 있을 수 있다.

Isaac Lab의 수많은 공식 예제에서 기본 강화학습 알고리즘으로 PPO(Proximal Policy Optimization)가 채택된 것을 볼 수 있다.33 이는 PPO가 구현이 비교적 간단하고 하이퍼파라미터 튜닝에 덜 민감하여 훈련 과정이 매우 안정적이기 때문이다. 더 중요한 이유는 PPO의 on-policy 특성이 Isaac Lab의 아키텍처와 완벽한 시너지를 내기 때문이다. On-policy 알고리즘은 현재 정책으로 수집한 데이터로만 학습하기 때문에 데이터 효율성이 낮다는 단점이 있지만, Isaac Lab은 대규모 병렬 시뮬레이션을 통해 이 단점을 상쇄하고도 남을 만큼 방대한 데이터를 실시간으로 공급한다.21 따라서 데이터 재사용의 필요성이 줄어들고, 오히려 각 병렬 환경에 빠르게 적응하고 안정적으로 정책을 업데이트하는 PPO의 장점이 극대화된다. 이처럼 Isaac Lab의 아키텍처와 PPO 알고리즘의 특성은 서로의 강점을 강화하고 약점을 보완하는 공진화(co-evolution) 관계를 형성하고 있다.

PPO의 수학적 핵심은 ‘Clipped Surrogate Objective Function’에 있다. 이는 이전 세대의 알고리즘인 TRPO(Trust Region Policy Optimization)가 사용했던 복잡한 2차 최적화 기반의 KL-발산 제약 조건 대신, 간단한 클리핑(clipping) 연산을 통해 정책 업데이트가 이전 정책으로부터 너무 멀리 벗어나지 않도록 제한한다.35 PPO의 목적 함수는 다음과 같다. \(L^{CLIP}(\theta) = \hat{\mathbb{E}}_t \left[ \min \left( r_t(\theta) \hat{A}_t, \text{clip}(r_t(\theta), 1 - \epsilon, 1 + \epsilon) \hat{A}_t \right) \right]\) 여기서 각 항의 의미는 다음과 같다.36

이 목적 함수는 어드밴티지가 양수일 때 $r_t(\theta)$가 $1+\epsilon$ 이상으로 커지는 것을 막고, 어드밴티지가 음수일 때 $r_t(\theta)$가 $1-\epsilon$ 이하로 작아지는 것을 막아 학습의 안정성을 크게 향상시킨다.39

PPO 목적 함수의 핵심 요소인 어드밴티지 $\hat{A}_t$를 어떻게 정확하고 안정적으로 추정하는가는 정책 경사(policy gradient) 알고리즘의 성능에 지대한 영향을 미친다. GAE(Generalized Advantage Estimation)는 이 문제를 해결하기 위해 널리 사용되는 기법이다.41 GAE의 핵심 아이디어는 편향(bias)과 분산(variance) 사이의 트레이드오프를 사용자가 조절할 수 있도록 하는 것이다.42

GAE는 TD 잔차(Temporal Difference residual) $\delta_t$의 지수 가중 평균으로 어드밴티지를 계산한다. TD 잔차는 1-스텝 추정치와 현재 가치 함수 추정치의 차이를 의미한다.43 \(\delta_t = r_t + \gamma V(s_{t+1}) - V(s_t)\) 이를 바탕으로 한 GAE의 공식은 다음과 같다.44 \(\hat{A}_t^{\text{GAE}(\gamma, \lambda)} = \sum_{l=0}^{\infty} (\gamma \lambda)^l \delta_{t+l}\) 여기서 $\gamma$는 미래 보상에 대한 할인율(discount factor)이고, $\lambda$는 GAE의 핵심 파라미터다.43

$0 < \lambda < 1$ 사이의 값을 사용함으로써, 연구자들은 편향과 분산 사이의 균형을 자신의 문제에 맞게 미세 조정할 수 있다. 일반적으로 $\lambda \approx 0.95$ 정도의 값이 좋은 성능을 보이는 것으로 알려져 있다.46

Isaac Lab은 강화학습 외에도 전문가의 시연으로부터 정책을 학습하는 모방학습(Imitation Learning) 워크플로우를 강력하게 지원한다.1 이 기능의 중심에는 Isaac Lab Mimic이라는 도구가 있다.2

Isaac Lab Mimic은 사용자가 키보드, 스페이스 마우스, 또는 VR 핸드 트래킹 장비와 같은 다양한 입력 장치를 사용하여 시뮬레이션 내의 로봇을 직접 원격으로 조작(teleoperation)하고, 그 궤적을 전문가 시연 데이터로 기록하는 기능을 제공한다.47 이렇게 수집된 데이터는 HDF5 파일 형식으로 저장되며, Robomimic과 같은 외부 모방학습 라이브러리와 연동하여 정책을 훈련하는 데 사용될 수 있다.5

또한, Isaac Lab Mimic은 단순히 데이터를 기록하는 것을 넘어, 수집된 소수의 시연 데이터를 바탕으로 수많은 변형된 시연 데이터를 절차적으로 생성(procedural generation)하고 증강하는 기능도 제공한다. 이는 학습 데이터의 다양성을 크게 높여, 학습된 정책의 일반화 성능과 강건성을 향상시키는 데 기여한다.

Isaac Lab의 큰 장점 중 하나는 사용자가 복잡한 환경 설정 없이 즉시 로봇 학습을 시작할 수 있도록 다양한 “Batteries-included” 환경을 제공한다는 점이다.2 2024년 기준으로 30개 이상의 사전 정의된 환경이 제공되며, 이는 크게 클래식 제어, 로봇 조작, 보행, 항법의 네 가지 카테고리로 분류된다.20

분류 환경 ID 예시 로봇 모델 주요 목표 관측 공간 (예) 행동 공간 유형  
조작 (Manipulation) Isaac-Lift-Cube-Franka-v0 Franka Panda 큐브를 들어 목표 지점으로 이동 관절 위치, 속도, 엔드 이펙터 포즈, 큐브 포즈 관절 위치 제어  
  Isaac-Reach-UR10-IK-Rel-v0 UR10 엔드 이펙터를 목표 포즈로 이동 관절 위치, 엔드 이펙터 포즈, 목표 포즈 상대 IK 제어  
접촉-집중 조작 Isaac-Factory-PegInsert-Direct-v0 Franka Panda 페그를 구멍에 정확히 삽입 관절 위치, 엔드 이펙터 힘/토크, 페그/구멍 포즈 임피던스 제어  
보행 (Locomotion) Isaac-Velocity-Rough-Anymal-C-v0 ANYmal C 험지에서 목표 속도(x, y, yaw) 추종 관절 위치/속도, IMU 데이터, 목표 속도, 발 접촉 상태 관절 위치 제어  
  Isaac-Velocity-Flat-H1-v0 Unitree H1 평지에서 목표 속도 추종 관절 위치/속도, IMU 데이터, 몸통 높이, 목표 속도 관절 위치 제어  
항법 (Navigation) Isaac-Navigation-Flat-Anymal-C-v0 ANYmal C 장애물을 피해 목표 지점(x, y, heading)으로 이동 관절 위치, 베이스 속도, 목표 지점까지의 벡터, LiDAR 스캔 베이스 속도 명령  

표 2: Isaac Lab 주요 로보틱스 환경 명세.48

이러한 환경들은 단순히 태스크만 정의된 것이 아니라, 다양한 액션 공간(예: 관절 위치 제어, 역기구학(IK) 기반 제어, 임피던스 제어)을 지원하여 사용자가 동일한 문제에 대해 여러 제어 방식을 실험할 수 있도록 유연성을 제공한다.49 특히 Factory, FORGE, AutoMate와 같은 환경들은 페그 삽입, 기어 맞물림 등 산업 현장에서 요구되는 고난도의 접촉-집중(contact-rich) 조립 작업을 시뮬레이션하여, 실제 산업 자동화 문제 해결을 위한 연구를 가능하게 한다.29

Isaac Lab의 궁극적인 목표는 시뮬레이션에서 훈련된 정책이 실제 로봇에서 성공적으로 작동하도록 하는 것이다. 여러 공개된 사례 연구는 Isaac Lab이 이 목표를 효과적으로 달성하고 있음을 보여준다.

이 사례들은 Sim-to-Real이 단순히 하나의 기술이 아니라, Isaac Lab(훈련), Isaac ROS(미들웨어), Jetson(엣지 컴퓨팅)을 아우르는 NVIDIA의 통합된 ‘워크플로우’임을 명확히 보여준다. 시뮬레이션 정책 생성부터 실제 로봇 배포 및 추론까지 전 과정이 NVIDIA의 하드웨어와 소프트웨어 생태계 안에서 끊김 없이 연결된다. 이는 개발자들에게 강력한 편의성을 제공하는 동시에, NVIDIA 플랫폼에 대한 기술적 의존도를 높여 강력한 락인(lock-in) 효과를 창출하려는 전략적 의도를 내포하고 있다.

Isaac Lab은 학계 연구를 넘어 산업 현장에서도 빠르게 도입되고 있다.

Isaac Lab의 특징과 장점을 더 명확히 이해하기 위해, 로보틱스 연구 및 개발 분야에서 널리 사용되는 다른 주요 시뮬레이터인 MuJoCo 및 Gazebo와 비교 분석한다.

각 시뮬레이터는 고유한 설계 철학과 강점을 가지고 있으며, 절대적인 우위보다는 프로젝트의 목표에 따라 적합성이 달라진다.

기능 NVIDIA Isaac Lab MuJoCo (+MJX) Gazebo  
주요 목표 대규모 RL/IL 정책 훈련, Sim-to-Real 빠르고 정확한 동역학 시뮬레이션, 제어 알고리즘 연구 ROS 기반 로봇 시스템의 통합 시뮬레이션 및 검증  
물리 엔진 PhysX 5 (GPU 가속) MuJoCo (CPU), MJX (GPU 가속) ODE, Bullet, DART, Simbody (주로 CPU)  
렌더링 품질 매우 높음 (RTX 실시간 레이 트레이싱) 중간 (기본 OpenGL 렌더러) 중간 (OGRE 3D 엔진)  
병렬 처리 네이티브 GPU 기반 대규모 병렬 처리 JAX 기반 GPU 병렬 처리 (주로 동종 환경) CPU 기반 다중 프로세스 (확장성 제한)  
ROS/ROS2 통합 브릿지를 통해 지원 외부 라이브러리 필요 네이티브, 매우 성숙함  
하드웨어 요구사항 매우 높음 (NVIDIA RTX GPU 필수) 낮음 낮음  
학습 곡선 높음 (Omniverse 플랫폼 포함) 중간 중간 (ROS 지식 필요)  
라이선스 오픈 소스 (BSD-3), 일부 Apache 2.0 오픈 소스 (Apache 2.0) 오픈 소스 (Apache 2.0)  

표 3: 주요 로봇 시뮬레이터 비교.25

시나리오별 제언:

최근 발표된 Isaac Sim 5.0과 Isaac Lab 2.2는 플랫폼의 발전 방향을 명확히 보여준다.67

Isaac Lab의 미래는 NVIDIA의 범용 로봇 파운데이션 모델인 GR00T (Generalist Robot 00 Technology) 프로젝트와 불가분의 관계에 있다. Isaac Lab은 GR00T 모델을 훈련하기 위한 핵심 시뮬레이션 및 학습 플랫폼으로 공식 지정되었다.1

GR00T는 시뮬레이션에서 생성된 합성 데이터, 실제 로봇의 궤적, 그리고 인터넷에서 수집된 인간의 행동 비디오 등 다양한 양식(multi-modal)의 데이터를 기반으로 훈련되는 거대 Vision-Language-Action (VLA) 모델이다.68 이 모델은 자연어 명령을 이해하고, 이를 바탕으로 복잡한 작업을 수행하는 범용 지능을 목표로 한다.

이 거대한 비전에서 Isaac Lab은 GR00T-Mimic, GR00T-Dreams와 같은 데이터 파이프라인과 결합하여, GR00T 훈련에 필요한 방대한 양의 고품질 합성 데이터를 생성하는 역할을 맡는다.4 이는 Isaac Lab이 더 이상 개별 로봇의 특정 태스크 정책을 훈련하는 도구에 머무르지 않고, 여러 로봇과 작업에 일반화될 수 있는 범용 지능, 즉 ‘Physical AI’를 개발하는 방향으로 나아가고 있음을 명확히 보여준다.

Isaac Sim과 Isaac Lab의 핵심 기능을 오픈소스로 전환한 결정은 플랫폼의 미래에 중대한 영향을 미칠 전략적 움직임이다.20 이는 더 넓은 개발자 및 연구자 커뮤니티의 참여를 유도하여, 프레임워크의 생태계를 빠르게 확장하려는 의도로 해석된다.

오픈소스화를 통해 버그 수정, 새로운 기능 제안 및 구현, 더 많은 로봇 모델과 학습 환경의 추가가 커뮤니티 주도로 이루어질 수 있다.20 이는 NVIDIA 내부 개발 자원에만 의존할 때보다 훨씬 빠른 속도로 플랫폼이 발전하고 성숙해질 수 있음을 의미한다. 실제로 NVIDIA는 Lightwheel과 같은 외부 그룹과의 협력을 통해 오픈소스 정책 평가 프레임워크와 벤치마크를 Isaac Lab에 통합하는 등, 커뮤니티와의 협력을 적극적으로 강화하고 있다.67

궁극적으로 NVIDIA의 전략은 단순한 시뮬레이션 소프트웨어 제공을 넘어선다. Isaac Lab과 GR00T의 결합은 NVIDIA의 시뮬레이션 환경(OVX 시스템)에서 훈련되고, NVIDIA의 컴퓨팅 하드웨어(DGX, Jetson)에서 가장 효율적으로 작동하는 ‘플랫폼 종속적 AI 모델’ 생태계를 구축하려는 거대한 계획의 일부다. 개발자가 GR00T와 같은 최첨단 모델을 활용하기 위해서는 자연스럽게 Isaac Lab을 사용하게 되고, 이는 다시 NVIDIA의 클라우드 및 엣지 하드웨어 구매로 이어지는 선순환 구조를 형성한다. 이는 하드웨어, 소프트웨어, AI 모델을 아우르는 강력한 수직적 통합을 통해 로보틱스 시장에서 ‘운영체제’와 같은 독점적 지위를 확보하려는 장기적인 비전을 보여준다.

NVIDIA Isaac Lab은 로보틱스, 특히 AI 기반 로봇 개발 분야에 중요한 전환점을 제시하는 프레임워크다. 그 의의는 다음과 같이 요약할 수 있다.

Isaac Lab은 혁신적인 잠재력에도 불구하고, 현재 몇 가지 명백한 한계와 개선 과제를 안고 있다.

이러한 의의와 한계를 고려할 때, Isaac Lab을 효과적으로 활용하기 위한 전략은 다음과 같이 제언할 수 있다.

  1. 목표에 따른 도구 선택: 프로젝트의 핵심 목표가 무엇인지 명확히 해야 한다. 만약 목표가 지각 기반의 대규모 RL 정책 훈련이나 고충실도 Sim-to-Real이라면 Isaac Lab은 최적의 선택이다. 그러나 순수한 제어 이론 연구나 ROS 기반 시스템의 빠른 통합 테스트가 목적이라면, 각각 MuJoCo나 Gazebo가 더 효율적일 수 있다.
  2. 점진적 학습 접근: 처음부터 복잡한 Direct 워크플로우에 도전하기보다는, 모듈화된 Manager-based 워크플로우로 시작하여 프레임워크의 구조와 데이터 흐름에 익숙해지는 것이 좋다. 이후 성능 최적화나 고도의 커스터마이징이 필요할 때 Direct 워크플로우로 전환하는 점진적 접근을 권장한다.
  3. 커뮤니티 자원의 적극적 활용: Isaac Lab은 빠르게 발전하고 있으며, 공식 문서만으로는 모든 것을 해결하기 어렵다. NVIDIA 개발자 포럼, 공식 Discord 서버, 그리고 GitHub 저장소의 토론(Discussions) 및 이슈(Issues) 탭은 최신 정보 습득과 문제 해결을 위한 필수적인 자원이다.3
  4. 오픈소스 생태계와의 동기화: Isaac Lab이 오픈소스로 전환된 만큼, GitHub 저장소를 주시하며 최신 업데이트, 커뮤니티가 개발한 새로운 기능이나 로봇 지원을 적극적으로 활용해야 한다. 이는 개발 효율성을 높이고, 중복된 노력을 피하는 데 큰 도움이 될 것이다.

결론적으로, NVIDIA Isaac Lab은 로봇 학습의 미래를 향한 야심 찬 비전을 제시하는 강력한 도구다. 높은 진입 장벽과 기술적 성숙도라는 과제를 안고 있지만, 그 잠재력은 현존하는 어떤 시뮬레이션 플랫폼보다 크다고 할 수 있다. 연구자와 개발자들은 그 본질을 ‘대규모 데이터 생성 엔진’으로 이해하고, 자신의 목표에 맞게 전략적으로 활용할 때 그 가치를 온전히 실현할 수 있을 것이다.

  1. NVIDIA Isaac Lab, 8월 17, 2025에 액세스, https://developer.nvidia.com/isaac/lab
  2. Welcome to Isaac Lab!, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/
  3. Deep-Dive Into Isaac Lab Workflows Isaac Lab Office Hours - YouTube, 8월 17, 2025에 액세스, https://www.youtube.com/watch?v=_UHxP0FbOws
  4. NVIDIA Isaac - AI Robot Development Platform, 8월 17, 2025에 액세스, https://developer.nvidia.com/isaac
  5. How NVIDIA’s Isaac Lab can accelerate robot learning in simulation, 8월 17, 2025에 액세스, https://www.therobotreport.com/how-nvidias-isaac-lab-can-accelerate-robot-learning-in-simulation/
  6. NVIDIA Isaac Sim, Omniverse, and Cosmos – The Robotics & AI Simulation Ecosystem Explained - RidgeRun.ai, 8월 17, 2025에 액세스, https://www.ridgerun.ai/post/nvidia-isaac-sim-omniverse-and-cosmos-the-robotics-ai-simulation-ecosystem-explained
  7. Isaac Sim - Robotics Simulation and Synthetic Data Generation - NVIDIA Developer, 8월 17, 2025에 액세스, https://developer.nvidia.com/isaac/sim
  8. Reference Architecture and Task Groupings - Isaac Sim Documentation, 8월 17, 2025에 액세스, https://docs.isaacsim.omniverse.nvidia.com/latest/introduction/reference_architecture.html
  9. Isaac Lab Ecosystem, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/setup/ecosystem.html
  10. Isaac Lab - Isaac Sim Documentation, 8월 17, 2025에 액세스, https://docs.isaacsim.omniverse.nvidia.com/latest/isaac_lab_tutorials/index.html
  11. Isaac Gym - Preview Release - NVIDIA Developer, 8월 17, 2025에 액세스, https://developer.nvidia.com/isaac-gym
  12. Omniverse Platform for OpenUSD - NVIDIA, 8월 17, 2025에 액세스, https://www.nvidia.com/en-us/omniverse/
  13. What Is Isaac Sim? - NVIDIA Omniverse, 8월 17, 2025에 액세스, https://docs.omniverse.nvidia.com/isaacsim
  14. NVIDIA Isaac Sim™ is an open-source application on NVIDIA Omniverse for developing, simulating, and testing AI-driven robots in realistic virtual environments. - GitHub, 8월 17, 2025에 액세스, https://github.com/isaac-sim/IsaacSim
  15. docs/source/refs/reference_architecture / main / Yichen Cai / IsaacLab - GitLab, 8월 17, 2025에 액세스, https://git.ias.informatik.tu-darmstadt.de/cai/IsaacLab/-/tree/main/docs/source/refs/reference_architecture?ref_type=heads
  16. Reference Architecture - Isaac Lab Documentation - GitHub Pages, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/refs/reference_architecture/index.html
  17. isaaclab.scene - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/api/lab/isaaclab.scene.html
  18. Using the Interactive Scene - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/tutorials/02_scene/create_scene.html
  19. Advancing Physical AI - © 2024, Amazon Web Services, Inc. or its affiliates. All rights reserved., 8월 17, 2025에 액세스, https://reinvent.awsevents.com/content/dam/reinvent/2024/slides/aim/AIM113-S_Advancing-physical-AI-NVIDIA-Isaac-Lab-and-AWS-for-next-gen-robotics-sponsored-by-NVIDIA.pdf
  20. isaac-sim/IsaacLab: Unified framework for robot learning built on NVIDIA Isaac Sim - GitHub, 8월 17, 2025에 액세스, https://github.com/isaac-sim/IsaacLab
  21. Debugging and Training Guide - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/overview/reinforcement-learning/training_guide.html
  22. Closing the Sim-to-Real Gap: Training Spot Quadruped Locomotion with NVIDIA Isaac Lab, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/closing-the-sim-to-real-gap-training-spot-quadruped-locomotion-with-nvidia-isaac-lab/
  23. Learning to Walk in Minutes Using Massively Parallel Deep Reinforcement Learning - ar5iv, 8월 17, 2025에 액세스, https://ar5iv.labs.arxiv.org/html/2109.11978
  24. Multi-GPU and Multi-Node Training - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/features/multi_gpu.html
  25. Isaac Sim very slow compared to Mujoco or PyBullet (both physics and rendering), 8월 17, 2025에 액세스, https://forums.developer.nvidia.com/t/isaac-sim-very-slow-compared-to-mujoco-or-pybullet-both-physics-and-rendering/237453
  26. Fast-Track Robot Learning in Simulation Using NVIDIA Isaac Lab NVIDIA Technical Blog, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/fast-track-robot-learning-in-simulation-using-nvidia-isaac-lab/
  27. docs/source/tutorials/03_envs/create_direct_rl_env.rst - GitLab, 8월 17, 2025에 액세스, https://git.ias.informatik.tu-darmstadt.de/cai/IsaacLab/-/blob/874b7b628d501640399a241854c83262c5794a4b/docs/source/tutorials/03_envs/create_direct_rl_env.rst
  28. [Question] Proper way to implement domain randomization on actuator gains? / Issue #1604 / isaac-sim/IsaacLab - GitHub, 8월 17, 2025에 액세스, https://github.com/isaac-sim/IsaacLab/issues/1604
  29. Bridging the Sim-to-Real Gap for Industrial Robotic Assembly Applications Using NVIDIA Isaac Lab, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/bridging-the-sim-to-real-gap-for-industrial-robotic-assembly-applications-using-nvidia-isaac-lab/
  30. Advanced Sensor Physics, Customization, and Model Benchmarking Coming to NVIDIA Isaac Sim and NVIDIA Isaac Lab NVIDIA Technical Blog - NVIDIA Developer, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/advanced-sensor-physics-customization-and-model-benchmarking-coming-to-nvidia-isaac-sim-and-nvidia-isaac-lab/
  31. Reinforcement Learning - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/overview/reinforcement-learning/index.html
  32. Reinforcement Learning Library Comparison - Isaac Lab …, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/overview/reinforcement-learning/rl_frameworks.html
  33. [Question] Why did IsaacLab choose PPO, an on-policy algorithm, as its representative reinforcement learning algorithm instead of an off-policy method? / Issue #3103 / isaac-sim/IsaacLab - GitHub, 8월 17, 2025에 액세스, https://github.com/isaac-sim/IsaacLab/issues/3103
  34. Isaac Gym with Off-policy Algorithms : r/reinforcementlearning - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/reinforcementlearning/comments/12h1faq/isaac_gym_with_offpolicy_algorithms/
  35. Proximal policy optimization - Wikipedia, 8월 17, 2025에 액세스, https://en.wikipedia.org/wiki/Proximal_policy_optimization
  36. Introducing the Clipped Surrogate Objective Function - Hugging Face Deep RL Course, 8월 17, 2025에 액세스, https://huggingface.co/learn/deep-rl-course/unit8/clipped-surrogate-objective
  37. What is the way to understand Proximal Policy Optimization Algorithm in RL? - Stack Overflow, 8월 17, 2025에 액세스, https://stackoverflow.com/questions/46422845/what-is-the-way-to-understand-proximal-policy-optimization-algorithm-in-rl
  38. Proximal Policy Optimization (PPO) - Hugging Face, 8월 17, 2025에 액세스, https://huggingface.co/blog/deep-rl-ppo
  39. What is the exact purpose of clip function in PPO algorithm? PPO imposes policy ratio, r(θ) to stay within a small interval around 1. In the above equation, the function clip truncates the policy ratio between the range [1-ϵ, 1+ϵ]. If epsilon is taken as 0.2 or 0.25 - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/reinforcementlearning/comments/1726e4o/what_is_the_exact_purpose_of_clip_function_in_ppo/
  40. How Does PPO With Clipping Work? - Towards Data Science, 8월 17, 2025에 액세스, https://towardsdatascience.com/how-does-ppo-with-clipping-work-eff71a7a974a/
  41. high-dimensional continuous control using generalized advantage estimation - arXiv, 8월 17, 2025에 액세스, https://arxiv.org/pdf/1506.02438
  42. Generalized Advantage Estimation (GAE): A Deep Dive into Bias, Variance, and Policy Gradients - Shivang Shrivastav, 8월 17, 2025에 액세스, https://shivang-ahd.medium.com/generalized-advantage-estimation-a-deep-dive-into-bias-variance-and-policy-gradients-a5e0b3454dad
  43. Generalized Advantage Estimate - Notes on AI, 8월 17, 2025에 액세스, https://notesonai.com/generalized+advantage+estimate
  44. Generalized Advantage Estimation (GAE) - labml.ai, 8월 17, 2025에 액세스, https://nn.labml.ai/rl/ppo/gae.html
  45. Generalized Advantage Estimate: Maths and Code - Towards Data Science, 8월 17, 2025에 액세스, https://towardsdatascience.com/generalized-advantage-estimate-maths-and-code-b5d5bd3ce737/
  46. Generalised Advantage Estimator (GAE): How does it help a policy optimisation ? : r/reinforcementlearning - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/reinforcementlearning/comments/kjxrpk/generalised_advantage_estimator_gae_how_does_it/
  47. Teleoperation and Imitation Learning with Isaac Lab Mimic, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/overview/teleop_imitation.html
  48. Environments - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://docs.robotsfan.com/isaaclab_official/v1.0.0/source/features/environments.html
  49. Available Environments - Isaac Lab Documentation - GitHub Pages, 8월 17, 2025에 액세스, https://isaac-sim.github.io/IsaacLab/main/source/overview/environments.html
  50. R²D²: Unlocking Robotic Assembly and Contact Rich Manipulation with NVIDIA Research, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/r2d2-unlocking-robotic-assembly-and-contact-rich-manipulation-with-nvidia-research/
  51. Additional Resources - Isaac Lab Documentation, 8월 17, 2025에 액세스, https://docs.robotsfan.com/isaaclab_official/v1.3.0/source/refs/additional_resources.html
  52. NVIDIA Isaac Lab Blog News FieldAI, 8월 17, 2025에 액세스, https://www.fieldai.com/news/field-ai-nvidia-partnership
  53. NVIDIA Isaac Lab accelerates robot training in simulation, 8월 17, 2025에 액세스, https://www.therobotreport.com/rbr50-company-2025/nvidia-isaac-lab-accelerates-robot-training-in-simulation/
  54. Accelerating Robot Learning With Isaac Lab and OpenUSD - YouTube, 8월 17, 2025에 액세스, https://www.youtube.com/watch?v=8NoJZkabpGA
  55. Driving AI-Powered Robotics Development with NVIDIA Isaac for Healthcare, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/driving-ai-powered-robotics-development-with-nvidia-isaac-for-healthcare/
  56. Introducing NVIDIA Isaac for Healthcare, an AI-Powered Medical Robotics Development Platform, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/introducing-nvidia-isaac-for-healthcare-an-ai-powered-medical-robotics-development-platform/
  57. Which robotics simulator is better for reinforcement learning? MuJoCo, SAPIEN, or IsaacLab? : r/reinforcementlearning - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/reinforcementlearning/comments/1j4wa9g/which_robotics_simulator_is_better_for/
  58. A Review of Nine Physics Engines for Reinforcement Learning Research - arXiv, 8월 17, 2025에 액세스, https://arxiv.org/html/2407.08590v1
  59. Feature comparison between Omniverse IsaacSim and GPU-accelerated Mujoco 3.0.0 / Issue #1161 - GitHub, 8월 17, 2025에 액세스, https://github.com/google-deepmind/mujoco/issues/1161
  60. Best physics engine for reinforcement learning with parallel GPU training? - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/reinforcementlearning/comments/1ireyww/best_physics_engine_for_reinforcement_learning/
  61. Mujoco 3.0 vs Isaac Gym : r/reinforcementlearning - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/reinforcementlearning/comments/1857nn8/mujoco_30_vs_isaac_gym/
  62. Simulation Tools Joel’s PhD Blog - GitHub Pages, 8월 17, 2025에 액세스, https://joel-baptista.github.io/phd-weekly-report/posts/sim_tools/
  63. Why do we use gazebo instead of unreal or unity - ROS General - Open Robotics Discourse, 8월 17, 2025에 액세스, https://discourse.openrobotics.org/t/why-do-we-use-gazebo-instead-of-unreal-or-unity/25890
  64. Robotics simulation – A comparison of two state-of-the-art solutions - ResearchGate, 8월 17, 2025에 액세스, https://www.researchgate.net/publication/362100025Robotics_simulation-_A_comparison_of_two_state-of-the-art_solutions
  65. Robotics simulation – A comparison of two state-of-the-art solutions - ASIM GI, 8월 17, 2025에 액세스, https://www.asim-gi.org/fileadmin/user_upload_asim/ASIM_Publikationen_OA/AM180/a2033.arep.20_OA.pdf
  66. Gazebo vs. Isaac : r/ROS - Reddit, 8월 17, 2025에 액세스, https://www.reddit.com/r/ROS/comments/1fc2a3q/gazebo_vs_isaac/
  67. Announcing General Availability for NVIDIA Isaac Sim 5.0 and NVIDIA Isaac Lab 2.2, 8월 17, 2025에 액세스, https://developer.nvidia.com/blog/isaac-sim-and-isaac-lab-are-now-available-for-early-developer-preview/
  68. NVIDIA Isaac GR00T N1: An Open Foundation Model for Humanoid Robots Research, 8월 17, 2025에 액세스, https://research.nvidia.com/publication/2025-03_nvidia-isaac-gr00t-n1-open-foundation-model-humanoid-robots
  69. NVIDIA Isaac Sim - GitHub, 8월 17, 2025에 액세스, https://github.com/isaac-sim
  70. NVIDIA Opens Portals to World of Robotics With New Omniverse Libraries, Cosmos Physical AI Models and AI Computing Infrastructure, 8월 17, 2025에 액세스, https://investor.nvidia.com/news/press-release-details/2025/NVIDIA-Opens-Portals-to-World-of-Robotics-With-New-Omniverse-Libraries-Cosmos-Physical-AI-Models-and-AI-Computing-Infrastructure/default.aspx