Chapter 84. 깊은 신경망의 설계: VGGNet의 작은 필터(3x3) 연속 적층 전략 Chapter 84. 깊은 신경망의 설계: VGGNet의 작은 필터(3x3) 연속 적층 전략 84.1심층 합성곱 신경망 설계 방법론의 진화 84.2VGGNet 연구의 동기와 ILSVRC 2014 대회에서의 성과 84.3VGGNet의 핵심 설계 원칙: 균일한 구조의 반복적 적층 84.43×3 합성곱 필터의 수학적 정의와 연산 구조 84.53×3 필터 연속 적층의 등가 수용장(Effective Receptive Field) 증명 84.62단 3×3 합성곱과 단일 5×5 합성곱의 수용장 등가성 84.73단 3×3 합성곱과 단일 7×7 합성곱의 수용장 등가성 84.8소형 필터 적층에 의한 파라미터 수 절감의 수학적 분석 84.9소형 필터 적층에 따른 비선형 활성화 함수 증가 효과 84.10비선형성 증가가 특징 표현력(Feature Representation)에 미치는 영향 84.11VGG-16 아키텍처의 전체 계층 구성과 구조 분석 84.12VGG-19 아키텍처의 전체 계층 구성과 구조 분석 84.13VGGNet의 합성곱 블록(Convolutional Block) 구조와 채널 확장 전략 84.14채널 수의 단계적 증가(64→128→256→512)와 정보 추상화 84.15VGGNet의 최대 풀링 계층 배치와 공간 차원 축소 패턴 84.16VGGNet의 완전 연결 계층 구조와 파라미터 집중도 분석 84.17VGGNet의 전체 파라미터 수(1억 3천만+)와 메모리 요구량 84.18VGGNet의 연산량(FLOPs) 분석과 계산 비용 평가 84.19VGGNet 학습의 가중치 초기화 전략과 사전 학습 기법 84.20VGGNet에서의 배치 정규화(Batch Normalization) 미적용과 학습 불안정성 84.21VGGNet의 드롭아웃(Dropout) 적용 계층과 정규화 효과 84.221×1 합성곱 필터의 채널 간 선형 결합과 차원 변환 역할 84.23VGGNet의 전이 학습(Transfer Learning) 특징 추출기로서의 활용 84.24VGGNet 사전 학습 가중치의 도메인 적응(Domain Adaptation) 효과 84.25VGGNet과 AlexNet의 아키텍처 비교: 깊이와 정확도의 상관관계 84.26VGGNet과 GoogLeNet(Inception)의 설계 철학 비교 84.27VGGNet의 한계: 과도한 파라미터와 연산 비효율성 문제 84.28VGGNet이 후속 심층 신경망 설계에 미친 영향과 교훈