Chapter 47. 헵의 학습 법칙(Hebbian Learning)과 시냅스 가소성 Chapter 47. 헵의 학습 법칙(Hebbian Learning)과 시냅스 가소성 47.1도널드 헵(Donald O. Hebb)의 학문적 배경과 신경심리학적 기여 47.2『행동의 조직(The Organization of Behavior)』의 핵심 명제 47.3헵의 가설(Hebb’s Postulate): “함께 발화하는 뉴런은 함께 연결된다” 47.4헵의 학습 법칙의 수학적 형식화: 시냅스 가중치 갱신 규칙 47.5상관 학습(Correlation Learning)의 수학적 정의와 외적(Outer Product) 표현 47.6헵 학습의 행렬 형식과 가중치 행렬의 스펙트럼 분해 47.7헵 학습에서의 가중치 불안정성(Weight Instability) 문제와 발산 분석 47.8정규화 헵 학습(Normalized Hebbian Learning)과 가중치 크기 제한 47.9오자(Oja)의 학습 규칙: 단위 벡터 제약과 주성분 추출 47.10오자 규칙과 주성분 분석(PCA)의 수학적 동치 관계 증명 47.11생거(Sanger)의 일반화 헵 학습 알고리즘(GHA)과 다중 주성분 추출 47.12반-헵 학습(Anti-Hebbian Learning)과 독립 성분 분석(ICA)의 관계 47.13경쟁 학습(Competitive Learning)과 승자 독식(Winner-Takes-All) 메커니즘 47.14자기 조직화 맵(Self-Organizing Map, SOM)과 헵 원리의 확장 47.15시냅스 가소성(Synaptic Plasticity)의 신경생물학적 실험 근거 47.16장기 강화(Long-Term Potentiation, LTP)의 유도 프로토콜과 분자 메커니즘 47.17NMDA 수용체의 전압 의존적 활성화와 칼슘 유입 기전 47.18AMPA 수용체의 삽입과 시냅스 전도도 증가 47.19초기 LTP(E-LTP)와 후기 LTP(L-LTP)의 단계별 분자 경로 47.20장기 억압(Long-Term Depression, LTD)의 유도 조건과 시냅스 약화 47.21BCM 이론(Bienenstock-Cooper-Munro Theory)의 수학적 형식화 47.22BCM 이론의 슬라이딩 역치(Sliding Threshold)와 항상성 가소성 47.23스파이크 타이밍 의존적 가소성(STDP)의 발견과 실험적 검증 47.24STDP의 시간 비대칭 학습 창(Asymmetric Learning Window) 함수 47.25STDP와 인과적 추론(Causal Inference)의 신경 부호화 관계 47.26STDP의 수학적 모델링과 헵 학습 규칙의 시간적 정밀화 47.27메타가소성(Metaplasticity)과 시냅스 가소성의 조절 메커니즘 47.28시냅스 태깅(Synaptic Tagging)과 기억 공고화(Memory Consolidation) 47.29구조적 가소성(Structural Plasticity): 시냅스 생성과 제거의 동역학 47.30항상성 가소성(Homeostatic Plasticity)과 시냅스 스케일링(Synaptic Scaling) 47.31내재적 가소성(Intrinsic Plasticity)과 뉴런 흥분성 조절 47.32헵 학습과 연상 기억(Associative Memory) 네트워크의 관계 47.33홉필드 네트워크(Hopfield Network)의 에너지 함수와 헵 저장 규칙 47.34헵 학습 기반 패턴 완성(Pattern Completion)과 내용 주소 기억(CAM) 47.35볼츠만 머신(Boltzmann Machine)에서의 헵 유사 학습 규칙 47.36헵 학습과 비지도 학습(Unsupervised Learning)의 이론적 연결 47.37헵 학습과 강화 학습(Reinforcement Learning)의 보상 조절 확장 47.38신경 조절 물질(Neuromodulator)에 의한 가소성 게이팅(Gating) 47.39역전파(Backpropagation)의 생물학적 비타당성과 헵 기반 대안 이론 47.40헵 학습 원리가 현대 딥러닝 아키텍처 설계에 미치는 이론적 영향