Chapter 83. 초기 CNN 아키텍처: LeNet-5와 AlexNet의 계층적 특징 추출 Chapter 83. 초기 CNN 아키텍처: LeNet-5와 AlexNet의 계층적 특징 추출 83.1초기 합성곱 신경망 연구의 역사적 배경과 동기 83.2LeNet-5의 설계 목표: 필기체 숫자 인식 문제의 정의 83.3LeNet-5의 전체 네트워크 아키텍처 구성 83.4LeNet-5의 합성곱 계층 구조와 필터 설계 83.5LeNet-5의 서브샘플링(Subsampling) 계층과 가중 평균 풀링 83.6LeNet-5의 완전 연결 계층과 출력 분류기 구조 83.7LeNet-5의 활성화 함수: 시그모이드(Sigmoid)와 하이퍼볼릭 탄젠트(Tanh) 83.8LeNet-5의 학습 과정: 역전파와 경사 하강법 적용 83.9LeNet-5의 파라미터 수 분석과 가중치 공유 효과 83.10LeNet-5의 한계와 대규모 이미지 처리에서의 확장성 문제 83.11ImageNet 대규모 시각 인식 챌린지(ILSVRC)의 등장과 의의 83.12AlexNet의 설계 동기: 대규모 이미지 분류 과제의 도전 83.13AlexNet의 전체 네트워크 아키텍처와 계층 구성 83.14AlexNet의 합성곱 필터 구성과 특징 추출 전략 83.15ReLU(Rectified Linear Unit) 활성화 함수의 도입과 수학적 정의 83.16ReLU의 기울기 소실 문제 완화와 학습 가속 효과 83.17AlexNet의 중첩 최대 풀링(Overlapping Max Pooling) 전략 83.18GPU 병렬 연산을 활용한 AlexNet의 분산 학습 구조 83.19지역 응답 정규화(Local Response Normalization)의 원리와 효과 83.20드롭아웃(Dropout) 정규화 기법의 도입과 과적합 억제 메커니즘 83.21데이터 증강(Data Augmentation) 기법의 적용과 훈련 데이터 확장 83.22AlexNet의 소프트맥스(Softmax) 출력 계층과 확률적 분류 83.23AlexNet의 파라미터 수와 메모리 요구량 분석 83.24AlexNet의 계층별 피처 맵 시각화와 계층적 특징 추출 검증 83.25저수준 특징에서 고수준 특징까지의 추상화 계층 구조 83.26LeNet-5와 AlexNet의 아키텍처 비교: 깊이, 폭, 연산량 83.27AlexNet이 현대 심층 신경망 설계에 미친 영향 83.28AlexNet 이후 CNN 아키텍처 발전의 방향과 후속 연구