20.2 모델 압축 기술: 양자화와 가지치기 (Model Compression: Quantization & Pruning)

Home / 로봇, 자율주행을 위한 Embodied AI & Modern Control / Chapter 20. 파운데이션 모델의 경량화와 엣지 배포 (Efficient Deployment) / 20.2 모델 압축 기술: 양자화와 가지치기 (Model Compression: Quantization & Pruning)

20.2 모델 압축 기술: 양자화와 가지치기 (Model Compression: Quantization & Pruning)

  • 20.2 모델 압축 기술: 양자화와 가지치기 (Model Compression: Quantization & Pruning)
  • 20.2.1 양자화 기법의 진화: FP16에서 INT8, INT4, 그리고 1-bit LLM까지
  • 20.2.2 QLoRA와 GPTQ: 거대 모델의 효율적 파인튜닝과 배포
  • 20.2.3 구조적 가지치기(Structured Pruning)와 비구조적 가지치기(Unstructured Pruning)

Generated by Rust Site Gen