Booil Jung

손실 함수

머신러닝의 핵심은 데이터를 통해 학습하고 예측하는 모델을 구축하는 데 있다. 이 학습 과정의 방향을 결정하고 성패를 좌우하는 가장 근본적인 요소가 바로 손실 함수(Loss Function)이다. 손실 함수는 모델의 예측이 실제 정답과 얼마나 다른지를 정량적으로 측정하는 수학적 도구이다.1 모델의 예측이 정확하면 손실 값은 작아지고, 부정확하면 커진다. 따라서 지도 학습(Supervised Learning)의 근본적인 목표는 이 손실 함수의 값을 최소화하는 모델 파라미터를 찾는 과정으로 귀결된다.4

손실 함수의 선택은 단순히 기술적인 절차를 넘어, 해결하고자 하는 문제의 본질과 목표를 수학적으로 정의하는 핵심적인 설계 결정이다. 어떤 종류의 오차를 더 민감하게 다룰 것인지, 데이터에 내재된 특성(예: 이상치, 불균형)을 어떻게 처리할 것인지, 그리고 최종적으로 모델이 어떤 방향으로 최적화되어야 하는지에 대한 철학이 손실 함수 안에 담겨 있다.6 이는 모델의 성능, 수렴 속도, 그리고 일반화 능력에 지대한 영향을 미친다.

본 보고서는 손실 함수에 대한 포괄적이고 심층적인 분석을 제공하는 것을 목표로 한다. 먼저, 손실, 비용, 목적 함수 등 혼용되기 쉬운 기본 개념들의 의미를 명확히 정립하고, 이들이 모델 최적화 과정에서 어떻게 유기적으로 작동하는지 살펴본다. 다음으로, 손실 함수가 효과적으로 작동하기 위해 필요한 핵심적인 수학적 속성인 볼록성(convexity)과 미분가능성(differentiability)을 탐구하고, 이 속성들이 최적화에 미치는 영향을 분석한다. 이어서 회귀 및 분류 문제에 사용되는 표준적인 손실 함수부터 클래스 불균형, 생성 모델, 강화 학습과 같은 복잡한 과제를 해결하기 위한 고급 손실 함수까지 체계적으로 분류하고 심층 비교한다. 마지막으로, 실제 문제 상황에서 최적의 손실 함수를 선택하기 위한 전략적 프레임워크를 제시하고, 메타 러닝(meta-learning)을 통한 손실 함수 자동 설계 등 최신 연구 동향과 미래 전망을 조망함으로써, 손실 함수에 대한 완전하고 깊이 있는 이해를 도모하고자 한다.9

손실 함수를 깊이 있게 이해하기 위해서는 먼저 그와 관련된 핵심 용어와 개념적 틀을 명확히 구축해야 한다. 이 섹션에서는 종종 혼용되는 용어들을 엄밀하게 구분하고, 손실 함수가 머신러닝 학습 과정의 근간을 이루는 방식을 설명한다.

손실 함수는 지도 학습 알고리즘이 데이터셋을 얼마나 잘 모델링하는지 평가하는 방법으로, 모델의 예측값(y^)과 실제 정답(y) 사이의 편차, 즉 ‘손실(loss)’을 정량화한다.1 모델의 예측이 실제 값과 완벽히 일치하면 손실은 0에 가까워지고, 예측이 빗나갈수록 손실 값은 커진다.2 따라서 지도 학습의 목표는 주어진 데이터에 대해 이 손실 값을 최소화하는 방향으로 모델의 내부 파라미터(가중치와 편향)를 조정하는 것이다.4

이 개념은 ‘정답’ 또는 ‘기준값(ground truth)’이 존재하는 지도 학습에만 해당된다. 클러스터링(clustering)과 같은 전통적인 비지도 학습 알고리즘은 레이블이 없는 데이터에서 고유한 패턴을 발견하는 것을 목표로 하므로, 예측이 ‘맞고 틀림’의 개념이 없어 손실 함수를 사용하지 않는다.2

머신러닝 문헌에서 손실 함수(Loss Function), 비용 함수(Cost Function), 목적 함수(Objective Function)는 종종 같은 의미로 사용되지만, 엄밀한 분석을 위해서는 이들의 범위를 명확히 구분하는 것이 중요하다.5

이러한 용어의 계층 구조는 단순히 학문적 엄밀성을 위한 것이 아니다. 이는 머신러닝 모델 설계의 진화 과정을 반영한다. 가장 기본적인 목표는 단일 예제에 대해 올바른 예측을 하는 것(손실 함수로 측정)이다. 실용적인 모델이 되려면 데이터셋 전체에 대해 평균적으로 좋은 성능을 내야 한다(비용 함수로 측정). 마지막으로, 새로운 데이터에 대해서도 좋은 성능을 내는, 즉 일반화되기 위해서는 성능과 모델의 단순성 사이의 균형을 맞춰야 하며, 이는 정규화 항이 추가된 목적 함수를 통해 달성된다. 이처럼 용어의 구분은 머신러닝의 근본적인 과제인 ‘훈련 데이터 적합’과 ‘일반화’ 사이의 긴장 관계를 어떻게 수학적으로 해결할 것인지에 대한 선택을 보여준다.

손실 함수는 모델의 성능을 수동적으로 평가하는 점수판이 아니다. 그 핵심 역할은 모델의 파라미터(가중치 w와 편향 b)를 최적화하기 위한 신호를 능동적으로 제공하는 데 있다.2

경사 하강법(Gradient Descent)과 같은 최적화 알고리즘은 손실 함수의 기울기(gradient)를 사용한다.2 기울기는 각 파라미터에 대한 손실 함수의 편미분 벡터로, 현재 파라미터 위치에서 손실이 가장 가파르게 증가하는 방향을 나타낸다. 따라서 모델을 학습시킬 때는 이 기울기의 반대 방향으로 파라미터를 조금씩 이동시킨다. 이 과정을 반복하면 점진적으로 손실이 낮은 지점으로 이동하게 되며, 이 과정이 바로 모델이 ‘학습’하는 원리이다.2

결국 손실 함수의 수학적 형태는 ‘손실 공간(loss landscape)’이라는 다차원 공간의 지형을 결정한다.27 이 지형의 형태가 기울기의 방향과 크기를 결정하고, 이 기울기는 최적화 알고리즘이 모델의 가중치를 업데이트하는 유일한 정보가 된다.2 따라서 손실 함수를 선택하는 행위는 최적화 알고리즘이 탐색해야 할 지형을 설계하는 것과 같다. 부적절하게 선택된 손실 함수는 평탄한 지역(기울기 소실 문제)이나 급경사(기울기 폭주 문제)가 많은 험난한 지형을 만들어, 비록 해당 함수가 비즈니스 목표를 잘 반영하는 것처럼 보이더라도 최적화를 불가능하게 만들 수 있다.7

손실 함수가 최적화 과정에서 효과적으로 작동하기 위해서는 특정 수학적 속성을 갖추는 것이 이상적이다. 이 섹션에서는 볼록성(convexity)과 미분가능성(differentiability)이라는 두 가지 핵심 속성을 심층적으로 분석하고, 이러한 속성이 부재할 때 발생하는 문제와 그 해결 방안을 탐구한다.

평균 절대 오차(MAE)나 힌지 손실(Hinge Loss)처럼 유용하지만 모든 지점에서 미분 가능하지 않은 손실 함수들도 많다.6 이러한 함수들을 최적화하기 위해 다양한 기법들이 개발되었다.

이러한 해결책들은 머신러닝 분야가 경사 하강법에 얼마나 깊이 의존하고 있는지를 보여준다. F1 점수나 BLEU 점수처럼 실제 비즈니스에서 최적화하고 싶은 많은 지표들은 미분 불가능하다.49 그러나 연구자들은 무미분 최적화 기법으로 전환하기보다는, ‘소프트(soft)’ 버전을 만들거나 50, 미분 가능한 대리 모델을 설계하는 등 48 기존의 문제를 경사 하강법에 맞게 재구성하는 데 막대한 노력을 투자한다. 이는 역전파와 경사 하강법이 현대 인공지능에서 차지하는 계산적 효율성과 실용적 지배력을 명확히 보여주는 증거이다.

이 섹션에서는 지도 학습의 두 가지 주요 과제인 회귀와 분류에 사용되는 대표적인 손실 함수들을 수학적 공식, 이론적 배경, 실용적 장단점과 함께 상세하고 비교적으로 분석한다.

회귀 문제는 연속적인 값을 예측하는 과제로, 손실 함수는 예측값과 실제값 사이의 거리(오차의 크기)를 측정해야 한다.

손실 함수 공식 주요 속성 (미분가능성, 볼록성) 이상치 민감도 확률론적 해석 주요 사용 사례    
MSE (L2 Loss) $\frac{1}{n}∑(y_i−\hat{y}_i)^2$ 모든 지점에서 미분 가능, 볼록 높음 (오차를 제곱하여 큰 오차에 과도한 페널티) 오차가 정규분포를 따른다고 가정할 때의 MLE 데이터가 깨끗하고 이상치가 적을 때, 큰 오차를 엄격히 제어해야 할 때    
MAE (L1 Loss) $\frac{1}{n}∑ y_i−\hat{y}_i $ 0에서 미분 불가능, 볼록 낮음 (오차에 선형적으로 반응하여 이상치 영향이 적음)    
Huber Loss $δ$ 기준 조각적 함수 모든 지점에서 미분 가능, 볼록 중간 (δ 값으로 조절 가능, 큰 오차에는 덜 민감) MSE와 MAE의 하이브리드 이상치에 강건하면서도 안정적인 수렴이 필요할 때 (두 장점의 절충)    

분류 문제는 이산적인 클래스(category)를 예측하는 과제로, 손실 함수는 모델이 예측한 클래스 확률 분포와 실제 클래스 분포 간의 차이를 측정해야 한다.

손실 함수 기본 원리 공식 모델 출력 유형 미분가능성 주요 적용 모델
교차 엔트로피 확률 분포 간의 불일치 측정 (정보 이론 기반) BCE/CCE 공식 참조 클래스별 확률 (Sigmoid/Softmax 출력) 모든 지점에서 미분 가능 로지스틱 회귀, 심층 신경망 분류기
힌지 손실 최대 마진(Max-Margin) 원리 (기하학적 기반) $\max(0,1−y⋅f(x))$ 원시 점수 (raw score) 마진 경계$(y⋅f(x)=1)$에서 미분 불가능 서포트 벡터 머신 (SVM)

이 섹션에서는 현대 머신러닝의 가장 어려운 문제들을 해결하기 위해 손실 함수의 개념이 어떻게 창의적으로 확장되고 변형되었는지 탐구한다. 이는 손실 함수가 단순히 오차를 측정하는 도구를 넘어, 문제 해결 전략 그 자체가 될 수 있음을 보여준다.

손실 함수가 특정 과제의 구조에 맞춰 어떻게 맞춤 설계되는지 보여주기 위해 다른 분야의 예시들을 간략히 소개한다.

마지막 섹션에서는 본 보고서의 내용을 종합하여 실제 문제 해결을 위한 전략적 프레임워크를 제공하고, 손실 함수의 진화에 대한 미래 지향적인 관점을 제시한다.

손실 함수 선택은 체계적인 접근이 필요한 중요한 결정이다. 다음의 단계별 프레임워크는 실무자가 정보에 입각한 결정을 내리는 데 도움을 줄 수 있다.

부적절한 손실 함수 선택이 모델 성능에 미치는 파괴적인 영향을 구체적인 사례를 통해 살펴본다.

이러한 사례들은 중요한 점을 시사한다: 최적화하는 손실 함수와 최종적으로 평가하는 지표가 다를 때 심각한 성능 저하가 발생할 수 있다. 모델은 주어진 손실 함수를 최소화하는 데 매우 능숙해지지만, 이것이 실제로 중요한 평가 지표의 향상으로 이어지지 않을 수 있다.66 따라서 훈련 목표와 평가 기준을 최대한 일치시키는 것이 무엇보다 중요하다.

손실 함수 연구의 최전선은 정해진 메뉴에서 손으로 고르는 방식을 넘어, 자동화되고 적응적이며 더 강력한 패러다임으로 나아가고 있다.

본 보고서는 머신러닝의 핵심 구성 요소인 손실 함수에 대해 다각적이고 심층적인 고찰을 수행했다. 손실 함수는 단순히 모델의 오차를 측정하는 수치를 넘어, 학습의 목표를 정의하고 최적화 과정의 방향을 제시하는 나침반과 같은 역할을 수행한다. 그 선택은 모델의 최종 성능과 직결되는 가장 중요한 설계 결정 중 하나이다.

보고서의 분석을 통해, 손실, 비용, 목적 함수 간의 미묘하지만 중요한 개념적 차이가 모델 설계의 복잡성(단순 적합에서 일반화로의 이행)을 어떻게 반영하는지 확인했다. 또한, 볼록성과 미분가능성과 같은 수학적 속성이 최적화의 안정성과 효율성을 어떻게 보장하는지, 그리고 현대 딥러닝이 비볼록, 비미분 함수의 도전을 어떻게 극복하고 있는지를 탐구했다. 회귀와 분류의 표준 손실 함수부터 불균형 데이터, GAN, 강화학습과 같은 고급 과제를 위한 특수 손실 함수까지의 여정은, 주어진 문제의 본질을 해결하기 위해 손실 함수가 얼마나 창의적으로 설계될 수 있는지를 명확히 보여주었다.

결론적으로, 손실 함수에 대한 깊이 있는 이해와 신중한 선택은 성공적인 머신러닝 모델을 구축하고자 하는 모든 연구자와 실무자에게 필수적인 역량이다. 미래에는 메타 러닝과 같은 기술을 통해 손실 함수 자체가 데이터로부터 학습되어, 더욱 정교하고 자동화된 모델 개발이 가능해질 것이다. 이는 손실 함수가 머신러닝의 지적인 핵심으로서 그 중요성을 계속해서 확대해 나갈 것임을 시사한다. 강건하고, 효과적이며, 진정으로 지능적인 시스템을 구축하기 위한 여정에서 손실 함수에 대한 통찰력은 그 무엇보다 강력한 도구가 될 것이다.

  1. www.ibm.com, accessed July 19, 2025, https://www.ibm.com/kr-ko/think/topics/loss-function#:~:text=%EB%A8%B8%EC%8B%A0%20%EB%9F%AC%EB%8B%9D(ML)%EC%97%90%EC%84%9C%EB%8A%94%20%EC%86%90%EC%8B%A4,%EB%B3%80%EC%88%98%EB%A5%BC%20%EC%A1%B0%EC%A0%95%ED%95%B4%EC%95%BC%20%ED%95%A9%EB%8B%88%EB%8B%A4.
  2. 손실 함수란 무엇인가요? - IBM, accessed July 19, 2025, https://www.ibm.com/kr-ko/think/topics/loss-function
  3. Loss Functions in Machine Learning Explained - DataCamp, accessed July 19, 2025, https://www.datacamp.com/tutorial/loss-function-in-machine-learning
  4. 모델이 학습하는 방법 (1) - 손실함수(Loss function)와 경사하강법(Gradient Descent), accessed July 19, 2025, https://yhyun225.tistory.com/5
  5. [Machine Learning] 손실 함수 - 비용 함수, 목적 함수 - 정보 기술 놀이터, accessed July 19, 2025, https://byunghyun23.tistory.com/84
  6. [ ML/DL ] Loss function 왜 필요하고, 어디에 사용되는 걸까?, accessed July 19, 2025, https://tori-notepad.tistory.com/19
  7. The Impact of Loss on Machine Learning Models - Number Analytics, accessed July 19, 2025, https://www.numberanalytics.com/blog/the-impact-of-loss-on-machine-learning-models
  8. Loss Functions in Deep Learning: A Comprehensive Review - arXiv, accessed July 19, 2025, https://arxiv.org/html/2504.04242v1
  9. Loss Functions and Metrics in Deep Learning - arXiv, accessed July 19, 2025, https://arxiv.org/html/2307.02694v3
  10. How to Choose Loss Functions When Training Deep Learning Neural Networks - MachineLearningMastery.com, accessed July 19, 2025, https://machinelearningmastery.com/how-to-choose-loss-functions-when-training-deep-learning-neural-networks/
  11. A survey and taxonomy of loss functions in machine learning - arXiv, accessed July 19, 2025, https://arxiv.org/html/2301.05579v2
  12. Innovative Loss Function Strategies for Deep Learning Model Enhancement, accessed July 19, 2025, https://www.numberanalytics.com/blog/innovative-loss-function-strategies-deep-learning-enhancement
  13. 손실함수 간략 정리(예습용) - velog, accessed July 19, 2025, https://velog.io/@yuns_u/%EC%86%90%EC%8B%A4%ED%95%A8%EC%88%98-%EA%B0%84%EB%9E%B5-%EC%A0%95%EB%A6%AC
  14. Objective function, cost function, loss function: are they the same thing? - Kaggle, accessed July 19, 2025, https://www.kaggle.com/discussions/questions-and-answers/445725
  15. Difference Between the Cost, Loss, and the Objective Function …, accessed July 19, 2025, https://www.baeldung.com/cs/cost-vs-loss-vs-objective-function
  16. Cost Function & Loss Function - Nadeem, accessed July 19, 2025, https://nadeemm.medium.com/cost-function-loss-function-c3cab1ddffa4
  17. Objective function, cost function, loss function: are they the same thing? - Cross Validated, accessed July 19, 2025, https://stats.stackexchange.com/questions/179026/objective-function-cost-function-loss-function-are-they-the-same-thing
  18. 목적함수 vs 비용함수 vs 손실함수 - juxgsiroo, accessed July 19, 2025, https://jungsiroo.github.io/aistudy/2023-10-30-obj-cost-loss/
  19. Loss Function vs Cost Function vs Objective Function은 무슨 차이 인가요?, accessed July 19, 2025, https://ploradoaa.tistory.com/37
  20. Object Function, Cost Function, Loss Fuction - ok-lab - 티스토리, accessed July 19, 2025, https://ok-lab.tistory.com/171
  21. 비용함수(Cost Function), 손실함수(Loss function), 목적함수(Objective Function) Ai-tech, accessed July 19, 2025, https://velog.io/@regista/%EB%B9%84%EC%9A%A9%ED%95%A8%EC%88%98Cost-Function-%EC%86%90%EC%8B%A4%ED%95%A8%EC%88%98Loss-function-%EB%AA%A9%EC%A0%81%ED%95%A8%EC%88%98Objective-Function-Ai-tech
  22. 비용함수(Loss function/cost function)와 경사하강법(Gradient Descent)이란 - 비전공자 데이터분석 노트 - 티스토리, accessed July 19, 2025, https://bigdaheta.tistory.com/85
  23. SVM - Difference between Energy vs Loss vs Regularization vs Cost function, accessed July 19, 2025, https://stackoverflow.com/questions/37511274/svm-difference-between-energy-vs-loss-vs-regularization-vs-cost-function
  24. 목적함수, 비용함수 그리고 손실함수 - velog, accessed July 19, 2025, https://velog.io/@prislewarz/%EB%AA%A9%EC%A0%81%ED%95%A8%EC%88%98-%EB%B9%84%EC%9A%A9%ED%95%A8%EC%88%98-%EA%B7%B8%EB%A6%AC%EA%B3%A0-%EC%86%90%EC%8B%A4%ED%95%A8%EC%88%98
  25. [딥러닝 기본지식] 손실 함수(Loss Function)의 이해 - 손실 함수의 정의 …, accessed July 19, 2025, https://ga02-ailab.tistory.com/64
  26. Linear regression: Gradient descent Machine Learning - Google for Developers, accessed July 19, 2025, https://developers.google.com/machine-learning/crash-course/linear-regression/gradient-descent
  27. Visualizing the Loss Landscape of Neural Nets - NIPS papers, accessed July 19, 2025, https://proceedings.neurips.cc/paper/7875-visualizing-the-loss-landscape-of-neural-nets.pdf
  28. machine-learning-articles/about-loss-and-loss-functions.md at main - GitHub, accessed July 19, 2025, https://github.com/christianversloot/machine-learning-articles/blob/main/about-loss-and-loss-functions.md
  29. NeurIPS Poster Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms, accessed July 19, 2025, https://neurips.cc/virtual/2024/poster/93193
  30. 20.3. Convex and Differentiable Loss Functions - Learning Data Science, accessed July 19, 2025, https://learningds.org/ch/20/gd_convex.html
  31. Convexity Optimization - Machine Learning - GeeksforGeeks, accessed July 19, 2025, https://www.geeksforgeeks.org/machine-learning/convexity-optimization/
  32. Why convexity is the key to optimization - Towards Data Science, accessed July 19, 2025, https://towardsdatascience.com/understand-convexity-in-optimization-db87653bf920/
  33. 1 Gradient descent for convex functions: univariate case - Georgia Tech, accessed July 19, 2025, https://faculty.cc.gatech.edu/~ssingla7/courses/Spring22/lec11.pdf
  34. Why Convexity Matters in Machine Learning - Gradient Descent Part 1 - YouTube, accessed July 19, 2025, https://www.youtube.com/watch?v=L2YiNu22saU&pp=0gcJCdgAo7VqN5tD
  35. 1 Gradient descent for convex functions: univariate case - cs.Princeton, accessed July 19, 2025, https://www.cs.princeton.edu/courses/archive/fall13/cos521/lecnotes/lec19.pdf
  36. 12.2. Convexity - Dive into Deep Learning 1.0.3 documentation, accessed July 19, 2025, https://d2l.ai/chapter_optimization/convexity.html
  37. Understanding Convexity in Machine Learning and Deep Learning, accessed July 19, 2025, https://data-intelligence.hashnode.dev/understanding-convexity-in-ml-and-dl
  38. Convex vs. Non-Convex Functions: Why it Matters in Optimization for Machine Learning by Ruman MLfast.co, accessed July 19, 2025, https://rumn.medium.com/convex-vs-non-convex-functions-why-it-matters-in-optimization-for-machine-learning-39cd9427dfcc
  39. Loss Functions in Machine Learning Towards Data Science, accessed July 19, 2025, https://towardsdatascience.com/loss-functions-in-machine-learning-9977e810ac02/
  40. Differentiable vs Non Differentiable loss function in ML - Data Science Stack Exchange, accessed July 19, 2025, https://datascience.stackexchange.com/questions/117983/differentiable-vs-non-differentiable-loss-function-in-ml
  41. a survey and taxonomy of loss functions in machine learning - arXiv, accessed July 19, 2025, https://arxiv.org/pdf/2301.05579
  42. Understanding Loss Function in Deep Learning - Analytics Vidhya, accessed July 19, 2025, https://www.analyticsvidhya.com/blog/2022/06/understanding-loss-function-in-deep-learning/
  43. Mastering Hinge Loss in Machine Learning - Number Analytics, accessed July 19, 2025, https://www.numberanalytics.com/blog/ultimate-guide-to-hinge-loss-in-machine-learning
  44. What is Hinge loss in Machine Learning? - Analytics Vidhya, accessed July 19, 2025, https://www.analyticsvidhya.com/blog/2024/12/hinge-loss-in-machine-learning/
  45. Huber loss - Wikipedia, accessed July 19, 2025, https://en.wikipedia.org/wiki/Huber_loss
  46. Huber Loss – Loss function to use in Regression when dealing with Outliers, accessed July 19, 2025, https://mlexplained.blog/2023/07/31/huber-loss-loss-function-to-use-in-regression-when-dealing-with-outliers/
  47. Non differentiable loss function - Data Science Stack Exchange, accessed July 19, 2025, https://datascience.stackexchange.com/questions/66410/non-differentiable-loss-function
  48. Deep Learning in the Real World: How to Deal with Non-differentiable Loss Functions, accessed July 19, 2025, https://fruty.io/2019/11/04/deep-learning-in-the-real-world-how-to-deal-with-non-differentiable-loss-functions/
  49. Do loss functions have to be differentiable? - Learning Machine - RenChu Wang, accessed July 19, 2025, https://rentruewang.github.io/learning-machine/basics/gradients/loss-fn-derivative.html
  50. What happens when I use a non differentiable loss function? : r/MLQuestions - Reddit, accessed July 19, 2025, https://www.reddit.com/r/MLQuestions/comments/6nfkbe/what_happens_when_i_use_a_non_differentiable_loss/
  51. [Machine Learning] 손실 함수 (loss function), accessed July 19, 2025, https://insighted-h.tistory.com/7
  52. Linear regression: Loss Machine Learning - Google for Developers, accessed July 19, 2025, https://developers.google.com/machine-learning/crash-course/linear-regression/loss
  53. 5 Essential Loss Function Techniques for ML Success, accessed July 19, 2025, https://www.numberanalytics.com/blog/loss-function-techniques-ml
  54. Neural Network Loss Functions - ApX Machine Learning, accessed July 19, 2025, https://apxml.com/courses/introduction-to-deep-learning/chapter-3-training-loss-optimization/loss-functions-overview
    1. Loss function(손실함수) - 회귀&분류, accessed July 19, 2025, https://uumini.tistory.com/54
  55. The heart of machine learning: Understanding the importance of loss functions - EyeOn, accessed July 19, 2025, https://eyeonplanning.com/blog/the-heart-of-machine-learning-understanding-the-importance-of-loss-functions/
  56. HuberLoss - PyTorch 2.7 documentation, accessed July 19, 2025, https://docs.pytorch.org/docs/stable/generated/torch.nn.HuberLoss.html
  57. The Huber Loss Function And Its Application - FasterCapital, accessed July 19, 2025, https://fastercapital.com/topics/the-huber-loss-function-and-its-application.html/1
  58. The Ultimate Guide to Cross-Entropy Loss - Number Analytics, accessed July 19, 2025, https://www.numberanalytics.com/blog/ultimate-guide-cross-entropy-loss
  59. Categorical Cross-Entropy in Multi-Class Classification - GeeksforGeeks, accessed July 19, 2025, https://www.geeksforgeeks.org/deep-learning/categorical-cross-entropy-in-multi-class-classification/
  60. Understanding Cross-Entropy Loss and Its Role in Classification Problems - Medium, accessed July 19, 2025, https://medium.com/@l228104/understanding-cross-entropy-loss-and-its-role-in-classification-problems-d2550f2caad5
  61. Understanding Binary Cross-Entropy and Log Loss for Effective Model Monitoring, accessed July 19, 2025, https://coralogix.com/ai-blog/understanding-binary-cross-entropy-and-log-loss-for-effective-model-monitoring/
  62. Cross-Entropy Loss: Make Predictions with Confidence - Pinecone, accessed July 19, 2025, https://www.pinecone.io/learn/cross-entropy-loss/
  63. Support Vector Machine (SVM) Algorithm - GeeksforGeeks, accessed July 19, 2025, https://www.geeksforgeeks.org/machine-learning/support-vector-machine-algorithm/
  64. Understanding Hinge Loss in Machine Learning: A Comprehensive Guide by KoshurAI, accessed July 19, 2025, https://koshurai.medium.com/understanding-hinge-loss-in-machine-learning-a-comprehensive-guide-0a1c82478de4
  65. What are the impacts of choosing different loss functions in classification to approximate 0-1 loss - Cross Validated, accessed July 19, 2025, https://stats.stackexchange.com/questions/222585/what-are-the-impacts-of-choosing-different-loss-functions-in-classification-to-a
  66. hinge loss vs logistic loss advantages and disadvantages/limitations - Cross Validated, accessed July 19, 2025, https://stats.stackexchange.com/questions/146277/hinge-loss-vs-logistic-loss-advantages-and-disadvantages-limitations
  67. [D]How to handle highly imbalanced dataset? : r/MachineLearning - Reddit, accessed July 19, 2025, https://www.reddit.com/r/MachineLearning/comments/1ir2zm3/dhow_to_handle_highly_imbalanced_dataset/
  68. What is Focal Loss and when should you use it? - Aman Arora’s Blog, accessed July 19, 2025, https://amaarora.github.io/posts/2020-06-29-FocalLoss.html
  69. [D] Focal loss - why it scales down the loss of minority class? : r/MachineLearning - Reddit, accessed July 19, 2025, https://www.reddit.com/r/MachineLearning/comments/xt01bk/d_focal_loss_why_it_scales_down_the_loss_of/
  70. Focal Loss Explained Papers With Code, accessed July 19, 2025, https://paperswithcode.com/method/focal-loss
  71. Wasserstein GANs (W-GAN). - GANs Series Part 3 by Ankit kumar - Medium, accessed July 19, 2025, https://ankittaxak5713.medium.com/wasserstein-gans-wgan-3b8031aebf53
  72. How to Implement Wasserstein Loss for Generative Adversarial …, accessed July 19, 2025, https://machinelearningmastery.com/how-to-implement-wasserstein-loss-for-generative-adversarial-networks/
  73. Loss Functions Machine Learning - Google for Developers, accessed July 19, 2025, https://developers.google.com/machine-learning/gan/loss
  74. Wasserstein GAN - Wikipedia, accessed July 19, 2025, https://en.wikipedia.org/wiki/Wasserstein_GAN
  75. WGAN-GP Loss Explained - Papers With Code, accessed July 19, 2025, https://paperswithcode.com/method/wgan-gp-loss
  76. REINFORCE Algorithm explained in Policy-Gradient based methods with Python Code, accessed July 19, 2025, https://www.sefidian.com/2021/03/01/policy-g/
  77. Understanding Policy Gradient - a fundamental idea in RL - Radek Osmulski, accessed July 19, 2025, https://radekosmulski.com/understanding-policy-gradient-the-fundamental-idea-underpinning-much-of-rl/
  78. REINFORCE (Vanilla Policy Gradient VPG) Algorithm Explained - YouTube, accessed July 19, 2025, https://www.youtube.com/watch?v=boEO7tN7uoY
  79. Policy Gradient Algorithms - Lil’Log, accessed July 19, 2025, https://lilianweng.github.io/posts/2018-04-08-policy-gradient/
  80. Introduction to Reinforcement Learning. Part 5: Policy Gradient Algorithms, accessed July 19, 2025, https://markelsanz14.medium.com/introduction-to-reinforcement-learning-part-5-policy-gradient-algorithms-862960f7b0dc
  81. Reinforcement Learning Explained Visually (Part 6): Policy Gradients, step-by-step, accessed July 19, 2025, https://towardsdatascience.com/reinforcement-learning-explained-visually-part-6-policy-gradients-step-by-step-f9f448e73754/
  82. REINFORCE - A Quick Introduction (with Code) - Dilith Jayakody, accessed July 19, 2025, https://dilithjay.com/blog/reinforce-a-quick-introduction-with-code
  83. Reinforcement Learning from Scratch - Part 3 - REINFORCE Algorithm - DEV Community, accessed July 19, 2025, https://dev.to/akshayballal/reinforcement-learning-from-scratch-part-3-reinforce-algorithm-4724
  84. What is Loss Function? IBM, accessed July 19, 2025, https://www.ibm.com/think/topics/loss-function
  85. Outliers and Loss Functions - Eran Raviv, accessed July 19, 2025, https://eranraviv.com/outliers-and-loss-functions/
  86. Use weighted loss function to solve imbalanced data classification problems - Medium, accessed July 19, 2025, https://medium.com/@zergtant/use-weighted-loss-function-to-solve-imbalanced-data-classification-problems-749237f38b75
  87. AutoBalance: Optimized Loss Functions for Imbalanced Data - NIPS, accessed July 19, 2025, https://papers.nips.cc/paper/2021/file/191f8f858acda435ae0daf994e2a72c2-Paper.pdf
  88. [D] Imbalance: Metric to Loss functions : r/MachineLearning - Reddit, accessed July 19, 2025, https://www.reddit.com/r/MachineLearning/comments/v4lwr6/d_imbalance_metric_to_loss_functions/
  89. How To Choose Your Loss Function - Where I Disagree With Cassie Kozyrkov by Christian Leschinski Towards AI, accessed July 19, 2025, https://pub.towardsai.net/how-to-choose-your-loss-function-where-i-disagree-with-cassie-kozyrkov-2038d19b5e0a
  90. Meta Learning via Learned Loss - arXiv, accessed July 19, 2025, https://arxiv.org/pdf/1906.05374
  91. Meta-Learning via Learned Loss - Artem Molchanov, accessed July 19, 2025, https://amolchanov86.github.io/pdf/bechtle19icml.pdf
  92. Meta Learning via Learned Loss - Meta Research - Facebook, accessed July 19, 2025, https://research.facebook.com/publications/meta-learning-via-learned-loss/
  93. Meta-Learning With Task-Adaptive Loss Function for Few-Shot Learning - CVF Open Access, accessed July 19, 2025, https://openaccess.thecvf.com/content/ICCV2021/papers/Baik_Meta-Learning_With_Task-Adaptive_Loss_Function_for_Few-Shot_Learning_ICCV_2021_paper.pdf
  94. Loss Functions in Deep Learning: A Comprehensive Review - arXiv, accessed July 19, 2025, https://arxiv.org/pdf/2504.04242
  95. NeurIPS Poster Realizable $H$-Consistent and Bayes-Consistent Loss Functions for Learning to Defer, accessed July 19, 2025, https://neurips.cc/virtual/2024/poster/95357
  96. NeurIPS Poster On the Convergence of Loss and Uncertainty-based Active Learning Algorithms, accessed July 19, 2025, https://neurips.cc/virtual/2024/poster/95912