Part 2. 딥러닝을 위한 수학적 기초: 대수학, 미적분, 확률론
- Chapter 27. 선형대수학 기초: 스칼라, 벡터, 행렬의 정의와 연산
- Chapter 28. 텐서(Tensor)의 개념과 다차원 배열의 기하학적 의미
- Chapter 29. 선형 변환(Linear Transformation)과 기저(Basis)의 매핑
- Chapter 30. 고유값(Eigenvalue)과 고유벡터(Eigenvector)의 기하학적 분해
- Chapter 31. 특이값 분해(SVD)의 수학적 원리 및 행렬 근사
- Chapter 32. SVD를 활용한 차원 축소와 주성분 분석(PCA) 기초
- Chapter 33. 미적분학 기초: 함수의 극한과 미분의 기하학적 의미
- Chapter 34. 편미분(Partial Derivative)과 기울기(Gradient) 벡터
- Chapter 35. 다변수 합성함수의 미분과 연쇄 법칙(Chain Rule) 증명
- Chapter 36. 1차 미분 행렬: 야코비안(Jacobian) 행렬의 벡터 공간 변환
- Chapter 37. 2차 미분과 곡률: 헤시안(Hessian) 행렬을 통한 지형 분석
- Chapter 38. 확률론 기초: 확률 변수, 기댓값, 그리고 조건부 확률
- Chapter 39. 베이즈 정리(Bayes’ Theorem)와 사전/사후 확률 기반 추론
- Chapter 40. 연속형 및 이산형 확률 분포: 가우시안, 베르누이, 다항 분포
- Chapter 41. 정보량(Surprisal)과 섀넌 엔트로피(Shannon Entropy) 계산
- Chapter 42. 확률 분포 간의 거리: 쿨백-라이블러 발산(KL Divergence) 증명
- Chapter 43. 최적화 이론 기초: 볼록(Convex) 집합과 볼록 함수의 성질
- Chapter 44. 비볼록(Non-convex) 최적화 문제와 안장점(Saddle Point) 분석