Chapter 17. 시각-언어-행동 모델 (Vision-Language-Action Models, VLA)

Home / 로봇, 자율주행을 위한 Embodied AI & Modern Control / Chapter 17. 시각-언어-행동 모델 (Vision-Language-Action Models, VLA)

Chapter 17. 시각-언어-행동 모델 (Vision-Language-Action Models, VLA)

  • Chapter 17. 시각-언어-행동 모델 (Vision-Language-Action Models, VLA)
  • 17.1 VLM을 넘어 VLA로: 행동하는 파운데이션 모델
  • 17.2 행동 토큰화(Action Tokenization)와 아키텍처
  • 17.3 대표적인 VLA 모델 사례 분석
  • 17.4 교차 신체(Cross-Embodiment) 데이터와 학습 전략
  • 17.5 VLA의 추론 능력과 일반화 (Generalization)
  • 17.6 실시간 제어를 위한 도전 과제와 최적화

Generated by Rust Site Gen