Booil Jung

ArcFace (Additive Angular Margin Loss for Deep Face Recognition, arXiv 2018, CVPR 2019)

심층 신경망(Deep Neural Network)의 발전은 얼굴 인식(Face Recognition) 기술에 혁명적 변화를 가져왔다. 초기 심층 얼굴 인식 연구는 주로 두 가지 손실 함수, 즉 Softmax Loss와 Triplet Loss에 의존했다.

Softmax Loss는 심층 학습 기반 얼굴 인식을 다중 클래스 분류(multi-class classification) 문제로 접근하는 표준적인 방법론이다. 이 손실 함수는 학습 데이터셋 내에서 각 클래스를 분리하는 결정 경계(decision boundary)를 학습하는 데 효과적이다. 그러나, 학습 데이터에 존재하지 않는 새로운 인물을 인식해야 하는 개방형 집합(open-set) 환경에서는 학습된 특징(feature)이 충분히 판별적(discriminative)이지 않다는 근본적인 한계를 드러낸다.1 Softmax는 단순히 클래스를 분리하는 데 최적화될 뿐, 동일 클래스에 속한 특징들의 집약도(intra-class compactness)를 명시적으로 강화하거나 다른 클래스 간의 분리도(inter-class separability)를 최대화하지 않기 때문이다.3 이러한 특성은 실제 환경에서 마주하는 큰 포즈 변화, 다양한 조명 조건, 연령 변화와 같은 클래스 내 변동성(intra-class variation)에 취약한 결과를 낳는다.3 또한, 수백만 명의 신원(identity)을 다루는 대규모 데이터셋에서는 마지막 완전 연결 계층(fully connected layer)의 가중치 행렬 크기가 신원 수에 비례하여 선형적으로 증가하는 확장성 문제도 내포하고 있다.1

Triplet Loss는 이러한 한계를 극복하기 위해 거리 학습(metric learning) 접근법을 도입했다. 이 손실 함수는 특징 공간 내에서 기준 샘플(anchor)을 중심으로, 동일 인물 샘플(positive)과의 거리는 좁히고 다른 인물 샘플(negative)과의 거리는 멀어지도록 명시적으로 학습한다.5 이를 통해 클래스 내 집약도와 클래스 간 분리도를 직접적으로 최적화하여 높은 판별력을 갖는 특징 공간을 형성한다. 하지만 Triplet Loss는 대규모 데이터셋에서 심각한 계산 비효율성 문제를 야기한다. 학습에 사용될 수 있는 모든 가능한 조합(triplet)의 수가 기하급수적으로 폭증하여 학습 시간이 길어지고, 모델의 수렴을 위해 효과적인 ‘세미-하드(semi-hard)’ 샘플을 채굴(mining)하는 과정이 매우 복잡하고 어렵다는 단점이 있다.1

Softmax Loss의 안정적인 학습 프레임워크와 Triplet Loss의 높은 특징 판별력, 이 두 가지 장점을 결합하려는 시도에서 마진 기반 Softmax 손실 함수(Margin-based Softmax Loss)가 탄생했다. 이 접근법은 Softmax의 분류 기반 구조를 유지하면서도, 특징 공간에 기하학적 제약을 가하여 판별력을 극대화하는 것을 목표로 한다.7 즉, 클래스 간 분산(inter-class variance)을 최대화하고 클래스 내 분산(intra-class variance)을 최소화하려는 공통된 목표를 추구한다.9

이러한 발전은 얼굴 인식을 바라보는 두 가지 상이한 관점, 즉 분류 문제와 거리 학습 문제의 융합을 의미한다. 초기 연구는 두 접근법을 별개로 취급했으나, 각 방법의 명확한 한계 1는 이상적인 해결책이 두 패러다임의 장점을 모두 포괄해야 한다는 결론으로 이어졌다. 마진 기반 손실 함수는 이러한 통찰의 구체적인 결과물이다. 계산적으로 효율적이고 확장이 용이한 분류 프레임워크 내에서 거리 학습의 목표인 임베딩 공간의 기하학적 구조를 직접 최적화하는 것이다. 특징 벡터를 초구면(hypersphere)에 투영하고, 각도(angle) 또는 코사인(cosine) 공간에서 결정 경계에 명시적인 마진(margin)을 추가하는 일련의 혁신은 SphereFace와 CosFace를 거쳐 ArcFace에서 그 정점에 도달하게 된다.

ArcFace의 등장은 선행 연구들의 성공과 한계를 바탕으로 이루어졌다. 특히 SphereFace와 CosFace는 특징 공간에 마진을 도입하는 개념을 정립하고 발전시키는 데 결정적인 역할을 했다.

SphereFace는 마진 기반 손실 함수의 개념을 본격적으로 제시한 선구적인 연구다.11 이 방법론의 핵심은 마지막 완전 연결 계층의 가중치(weight)를 L2 정규화(L2 normalization)하여, 특징 벡터의 크기(magnitude)와 무관하게 오직 특징 벡터와 가중치 벡터 사이의 각도(angle)에만 의존하여 클래스를 분류하도록 Softmax를 수정한 것이다.

SphereFace의 핵심 아이디어는 ‘곱셈적 각도 마진(multiplicative angular margin)’의 도입이다. 이는 기존의 결정 조건인 $cos(\theta_1) > cos(\theta_2)$를 $cos(m\theta_1) > cos(\theta_2)$ ($m \ge 2$인 정수)로 강화하는 방식이다.12 기하학적으로 이는 학습된 특징들을 단위 초구면(unit hypersphere) 매니폴드 상에 분포시키고, 각 클래스가 차지하는 각도 공간을 강제로 압축하여 클래스 간 분리도를 높이는 효과를 낳는다.12

그러나 SphereFace의 접근 방식은 중대한 최적화 문제를 안고 있었다. $cos(m\theta)$ 항은 $\theta$에 대해 단조 감소(monotonically decreasing) 함수가 아니므로, 경사 하강법(gradient descent) 기반의 최적화가 불안정해지는 경향이 있었다. 이 문제를 해결하기 위해 저자들은 표준 Softmax 손실을 함께 사용하는 하이브리드 손실 함수를 제안했지만, 이는 학습 과정을 복잡하게 만들고 수렴을 방해하는 요인이 되었다.11

CosFace는 SphereFace가 직면한 최적화 불안정성 문제를 해결하는 데 초점을 맞췄다. 이 방법론의 핵심은 마진을 각도 공간($\theta$)이 아닌 코사인 공간($cos(\theta)$)에 직접 부여하는 것이다.9

CosFace는 ‘덧셈적 코사인 마진(additive cosine margin)’을 제안했는데, 이는 목표 로짓(logit)을 $cos(\theta) - m$ 형태로 변형한다. 이 간단한 변형은 손실 함수가 $\theta$에 대해 단조 감소 특성을 유지하게 만들어, SphereFace에 비해 학습이 훨씬 안정적으로 진행되도록 했다.11 또한, 가중치뿐만 아니라 특징 벡터까지 모두 L2 정규화하여 방사형 변화(radial variation)를 제거하고, 모델이 오직 코사인 유사도에만 집중하도록 설계했다. 이를 통해 클래스 내 분산을 최소화하고 클래스 간 분산을 최대화한다는 목표를 보다 효과적으로 달성할 수 있었다.10

SphereFace에서 CosFace로의 발전은 손실 함수 설계에 있어 중요한 공학적 절충점, 즉 기하학적 순수성과 최적화 안정성 사이의 긴장 관계를 명확히 보여준다. SphereFace의 $cos(m\theta)$는 각도를 직접 조작한다는 점에서 기하학적으로 매우 직관적이지만, 비단조성으로 인해 최적화가 어려웠다.15 반면 CosFace의

$cos(\theta) - m$은 마진을 코사인 공간에 적용함으로써 기하학적 직접성은 일부 희생했지만, 훨씬 단순하고 안정적인 단조적 최적화 환경을 제공했다.11 이러한 진화 과정은 “기하학적으로 순수한 각도 마진의 장점과 안정적인 최적화를 동시에 달성할 수 있는가?”라는 새로운 연구 질문을 제기했으며, 이는 ArcFace 혁신의 직접적인 배경이 되었다.

마진 기반 접근법과 병행하여 발전한 또 다른 중요한 연구 흐름은 Center Loss이다. 이는 클래스 내 특징들의 집약도를 명시적으로 강화하기 위해 제안된 방법론으로, 기존 Softmax 손실 함수에 추가적인 정규화 항(regularization term)으로 작동한다.17

Center Loss의 핵심 아이디어는 각 클래스별 특징들의 중심(center)을 학습 데이터 전체에 걸쳐 업데이트하고, 각 특징 벡터와 해당 클래스 중심 간의 유클리드 거리를 최소화하는 페널티($|x_i - c_{y_i}|^2$)를 손실 함수에 추가하는 것이다.17 이 공동 감독(joint supervision) 체계 하에서 Softmax Loss는 클래스 간 분리(inter-class separation)를 담당하고, Center Loss는 클래스 내 집약(intra-class compactness)을 담당하여, 상호 보완적으로 특징의 전체적인 판별력을 향상시킨다.6

ArcFace는 SphereFace의 기하학적 직관성과 CosFace의 학습 안정성이라는 두 마리 토끼를 모두 잡기 위해 제안되었다. 이는 마진을 각도 공간에 직접 더하는 ‘덧셈적 각도 마진(Additive Angular Margin)’이라는 혁신적인 아이디어를 통해 달성되었다.

ArcFace는 먼저 CosFace와 마찬가지로 특징 벡터($x_i$)와 가중치($W_j$)를 모두 L2 정규화한다. 이후 특징 벡터의 크기를 고정된 스케일 $s$로 조정하여, 모델의 예측이 오직 특징과 가중치 사이의 각도 $\theta_j$에만 의존하도록 만든다.1

ArcFace의 손실 함수는 다음과 같이 정의된다 1: \(L_{ArcFace} = -\frac{1}{N} \sum_{i=1}^{N} \log \frac{e^{s \cdot \cos(\theta_{y_i} + m)}}{e^{s \cdot \cos(\theta_{y_i} + m)} + \sum_{j=1, j \neq y_i}^{n} e^{s \cdot \cos \theta_j}}\) 여기서 핵심적인 혁신은 목표 로짓(target logit)을 계산할 때, 목표 각도 $\theta_{y_i}$에 직접 덧셈적 각도 마진 $m$을 더하는 $\cos(\theta_{y_i} + m)$ 항이다. 이 방식은 SphereFace처럼 각도 공간에서 직접 마진을 제어하면서도, $\theta_{y_i}$가 $[0, \pi-m]$ 범위 내에 있도록 제어하면 코사인 함수의 단조 감소 특성이 유지되어 CosFace처럼 안정적인 학습이 가능하다는 장점을 가진다.1

ArcFace라는 이름은 정규화된 초구면 위에서 ‘호(Arc)’와 ‘각도(Angle)’가 직접적으로 대응된다는 사실에서 유래했다. 즉, 특징 공간을 하나의 초구면으로 가정했을 때, 두 특징 벡터 사이의 각도 차이는 초구면 상의 표면을 따라 측정되는 최단 거리, 즉 지오데식 거리(geodesic distance)와 비례한다. 따라서 ArcFace가 각도 공간에 추가하는 마진 $m$은 초구면 상의 지오데식 거리 마진과 정확히 일치하는 기하학적 의미를 가진다.1

이러한 설계는 결정 경계를 각도(호) 공간에서 직접 최대화하여 클래스 내 집약도와 클래스 간 분리도를 동시에 강화한다. 이는 다른 마진 기반 손실 함수들보다 더 명확하고 직관적인 기하학적 해석을 제공하며, ArcFace의 이론적 우수성을 뒷받침한다.1

세 가지 마진 기반 손실 함수는 결정 경계를 형성하는 방식에서 미묘하지만 중요한 차이를 보인다.

이러한 차이점은 아래 표 1에 요약되어 있다.

Table 1: 마진 기반 손실 함수 비교

특징 (Feature) Softmax SphereFace (A-Softmax) CosFace (AM-Softmax) ArcFace (AAM-Loss)
핵심 Logit $W_y^T x$ $\rvert\rvert x \rvert\rvert \cos(m\theta_y)$ $s \cdot (\cos\theta_y - m)$ $s \cdot \cos(\theta_y + m)$
마진 종류 없음 곱셈적 각도 마진 (Multiplicative Angular) 덧셈적 코사인 마진 (Additive Cosine) 덧셈적 각도 마진 (Additive Angular)
마진 적용 공간 - 각도 (Angle) 코사인 (Cosine) 각도 (Angle)
결정 경계 선형 (특징 공간) 비선형 (각도 공간) 비선형 (각도 공간) 선형 (각도 공간)
기하학적 의미 클래스 분리 초구면 위 각도 압축 코사인 공간에서의 분리 초구면 위 지오데식 거리 마진
학습 안정성 높음 낮음 (하이브리드 필요) 높음 높음

ArcFace의 성공은 단순히 우수한 손실 함수 설계에만 기인하지 않는다. 이를 실제로 구현하고 최상의 성능을 이끌어낸 InsightFace 프로젝트의 공학적 노력, 즉 강력한 백본 네트워크 아키텍처, 세심하게 정제된 대규모 데이터셋, 그리고 최적화된 학습 파이프라인의 삼박자가 맞아떨어진 결과다.

ArcFace의 성능을 극대화하기 위해 InsightFace 프로젝트는 기존의 심층 컨볼루션 신경망(DCNN) 아키텍처를 개선하여 사용했다.

대규모 얼굴 인식 모델 학습의 성패는 데이터의 양과 질에 달려있다. 초기에는 약 10만 명의 유명인에 대한 1,000만 장의 이미지를 포함하는 MS-Celeb-1M이 가장 큰 공개 데이터셋으로 주목받았다.22

그러나 MS-Celeb-1M은 웹에서 자동으로 수집되는 과정에서 상당한 양의 레이블 노이즈(잘못된 인물의 사진)와 저품질 이미지를 포함하고 있었다.24 이러한 노이즈는 모델 학습을 방해하고 성능을 저하시키는 주요 원인이었다.

InsightFace 팀은 이 문제를 해결하기 위해 데이터 정제에 막대한 노력을 기울였다. 사전 학습된 ArcFace 모델을 사용하여 이상치(outlier)를 탐지하고, 인종별 주석가를 고용하여 데이터를 수동으로 검수하는 반자동 정제 파이프라인을 구축했다.26 그 결과로 탄생한 MS1M-refined (MS1MV2) 데이터셋은 약 9만 3천 명의 신원에 대한 510만 장의 이미지로 구성되며, 노이즈가 크게 줄어들어 ArcFace 및 후속 연구들이 SOTA(State-of-the-Art) 성능을 달성하는 데 결정적인 발판이 되었다.26

ArcFace의 성공은 알고리즘, 데이터, 그리고 엔지니어링 간의 공생 관계를 명확히 보여준다. 덧셈적 각도 마진 손실이라는 이론적 우아함은, 세심하게 정제된 MS1M-V2 데이터셋과 강력한 IR-SE 백본 아키텍처 없이는 SOTA 성능으로 이어지지 못했을 것이다. 깨끗한 대규모 학습 데이터는 우수한 손실 함수가 잠재력을 최대한 발휘할 수 있는 환경을 제공했고, 강력한 백본은 손실 함수가 최적화할 수 있는 더 나은 품질의 특징을 추출했다. 이 세 요소의 시너지가 바로 ArcFace를 얼굴 인식 기술의 새로운 기준으로 올려놓은 원동력이다.

InsightFace는 MXNet과 PyTorch를 기반으로 한 효율적인 학습 파이프라인을 공개했다.3 전체 과정은 일반적으로 MTCNN(Multi-task Cascaded Convolutional Networks)을 이용한 얼굴 검출 및 정렬, 정제된 데이터셋을 이용한 모델 학습, 그리고 표준 벤치마크를 통한 성능 평가로 구성된다.6

모델의 최종 성능은 학습 과정에 사용되는 하이퍼파라미터에 크게 좌우된다. ArcFace 논문과 InsightFace 공식 구현에서 LResNet100E-IR 모델을 MS1MV2 데이터셋으로 학습시킬 때 사용된 대표적인 설정은 아래 표 2와 같다.30

Table 2: InsightFace 학습 하이퍼파라미터 (LResNet100E-IR on MS1MV2)

하이퍼파라미터 (Hyperparameter) 값 (Value) 설명 (Description)
Backbone Network LResNet100E-IR 100-layer Improved ResNet with SE blocks
Training Dataset MS1MV2 Refined MS-Celeb-1M (93K IDs, 5.1M images)
Optimizer SGD Stochastic Gradient Descent
Momentum 0.9 SGD 모멘텀 값
Weight Decay 5e-4 가중치 감쇠 (L2 정규화)
Batch Size 512 (e.g., 8 GPUs x 64) 총 미니배치 크기
Learning Rate (LR) 0.1 (initial) 초기 학습률, 100K, 160K, 220K 반복에서 1/10 감소
Embedding Size 512 최종 특징 벡터의 차원
Loss Function ArcFace Additive Angular Margin Loss
Margin $m$ 0.5 덧셈적 각도 마진 (라디안)
Scale $s$ 64.0 특징 벡터 크기 스케일

ArcFace의 우수성은 다양한 공개 벤치마크에서의 압도적인 성능으로 입증되었다. 이는 단순한 1:1 검증(verification)부터 대규모 1:N 식별(identification), 그리고 극단적인 비제약 환경에서의 강건성 평가에 이르기까지 전방위적으로 나타난다.

MegaFace 챌린지는 백만 개 수준의 방해물(distractor) 이미지 속에서 특정 인물을 찾아내는 대규모 1:N 식별 성능을 평가한다.37 이는 통제된 1:1 검증보다 훨씬 현실 세계에 가깝고 도전적인 과제다.

ArcFace는 정제된 MS1MV2 데이터셋으로 학습하고, 평가 데이터에 대해서도 데이터 정제(refinement, R)를 적용했을 때, 100만 명의 방해물이 있는 환경에서 98.35%의 Rank-1 식별 정확도를 달성했다.15 이는 이전의 SOTA 모델이었던 SphereFace (72.7%)나 CosFace (82.7%)를 압도하는 수치로, ArcFace가 대규모 실제 환경에서의 실용성을 갖추었음을 명확히 보여주었다.15

IJB-B와 IJB-C 벤치마크는 이미지와 비디오 프레임이 혼합되어 있으며, 극단적인 포즈, 낮은 해상도, 심각한 조명 변화 등 매우 열악한 조건의 데이터를 포함한다.40 이 벤치마크에서의 성능은 특정 오인식률(False Accept Rate, FAR)에서의 정인식률(True Accept Rate, TAR)로 평가되며, 실제 감시 환경에서의 모델 신뢰도를 가늠하는 중요한 척도다.

ArcFace는 IJB-C 벤치마크에서 `FAR=$10^{-4}$ (0.01%)일 때 TAR 96.07%라는 높은 성능을 기록했다.40 이는 실제 보안 및 감시 환경과 유사한 조건에서도 모델이 높은 신뢰도를 유지할 수 있음을 의미한다.

ArcFace가 LFW, MegaFace, IJB-C라는 세 가지 성격이 다른 핵심 벤치마크 모두에서 최고의 성능을 달성한 것은 얼굴 인식 연구의 평가 기준을 근본적으로 바꾸어 놓았다. 이전에는 많은 모델이 LFW와 같은 특정 벤치마크에서만 높은 성능을 보였으나, ArcFace의 등장은 단일 모델이 통제된 환경에서의 정확성(LFW), 대규모 환경에서의 확장성(MegaFace), 그리고 비제약 환경에서의 강건성(IJB-C)을 모두 갖출 수 있음을 증명했다. 이로 인해 이후의 모든 연구는 이 세 가지 측면을 종합적으로 평가받는 새로운 표준을 따르게 되었으며, 이는 얼굴 인식 기술의 실용성을 한 단계 끌어올리는 계기가 되었다.

Table 3: 주요 벤치마크 성능 요약

벤치마크 (Benchmark) 평가 지표 (Metric) SphereFace CosFace ArcFace (MS1MV2, R100)
LFW 정확도 (Accuracy) 99.42% 99.73% 99.83%
MegaFace Rank-1 식별률 (ID Rate @ 1M) 72.7% 82.7% 98.35% (R)
IJB-C TAR @ FAR=10−4 - - 96.07%

ArcFace는 얼굴 인식 기술의 수준을 한 단계 끌어올렸지만, 완벽한 해결책은 아니다. 특히 실제 세계의 극단적인 환경과 장기적인 신뢰성, 그리고 사회적 공정성 측면에서 여전히 중요한 도전 과제들을 남겼다.

ArcFace는 비제약 환경에서 SOTA 성능을 보였음에도 불구하고, 그 한계는 분명히 존재한다. 얼굴이 90도에 가깝게 돌아간 극단적인 포즈, 역광이나 야간과 같은 열악한 조명 조건, 그리고 선글라스, 마스크, 스카프 등으로 얼굴 일부가 가려진(occluded) 이미지에서는 인식 성능이 크게 저하된다.42

특히 마스크 착용과 같이 얼굴의 핵심적인 특징(코, 입, 턱선)을 가리는 경우는 인식에 치명적이다.45 한 분석에 따르면, ArcFace의 인식 실패 사례 중 상당수는 모델 자체의 문제라기보다, MTCNN과 같은 전처리 단계에서 얼굴 영역을 부정확하게 검출(예: 얼굴 일부만 잘라내거나, 배경의 다른 사람 얼굴을 오검출)하는 것에서 비롯되기도 한다.42 이는 전체 얼굴 인식 파이프라인에서 전처리의 중요성을 다시 한번 상기시킨다.

사람의 얼굴은 나이가 들면서 형태와 질감이 자연스럽게 변화한다. 이러한 노화 과정은 얼굴 인식 시스템의 장기적인 신뢰성에 큰 도전 과제다. 시스템에 등록된 초기 템플릿 이미지와 시간이 흐른 뒤 입력된 현재 이미지 간의 시간 간격이 클수록, 두 이미지에서 추출된 특징 벡터 간의 유사도는 감소하고 오인식률은 증가한다.46

한 연구에 따르면, ArcFace 아키텍처는 연령 차이가 큰 얼굴 쌍에 대해 정확도가 감소하는 경향을 보였다. 해당 연구에서는 생성적 적대 신경망(GAN)을 이용해 나이 변환 이미지를 합성하여 학습 데이터를 증강했을 때, ArcFace의 정확도가 82.64%에서 86.02%로 향상될 수 있음을 보였다.48 이는 ArcFace가 노화로 인한 외모 변화에 완전히 불변(invariant)하지 않으며, 장기적인 신원 확인 시나리오에서는 성능 저하가 발생할 수 있음을 시사한다.

얼굴 인식 모델의 성능이 특정 인구 통계학적 그룹(인종, 성별, 연령 등)에 따라 다르게 나타나는 편향 문제는 기술의 사회적 수용성과 직결되는 심각한 윤리적 문제를 야기한다.49

미국 국립표준기술연구소(NIST)의 보고서를 포함한 다수의 연구는 대부분의 상용 얼굴 인식 알고리즘이 백인 남성에 비해 유색 인종 여성에게서 훨씬 높은 오인식률을 보인다는 사실을 입증했다.51 이러한 편향의 주된 원인은 학습 데이터의 불균형에 있다. ArcFace가 학습에 사용한 MS-Celeb-1M과 같은 대규모 웹 스크래핑 데이터셋은 특정 인종(백인)과 성별(남성)에 데이터가 편중되어 있어, 소수 그룹에 대한 모델의 일반화 성능 저하를 필연적으로 야기한다.53

이러한 기술적 편향은 잘못된 용의자 지목 및 체포, 특정 인구 그룹에 대한 금융 서비스 거부 등 실질적인 사회적 불이익으로 이어질 수 있으며, 기술의 공정한 적용을 위해 반드시 해결해야 할 핵심 과제로 남아있다.50

ArcFace가 표준 벤치마크에서 거의 완벽에 가까운 정확도를 달성한 것은 역설적으로 이 기술의 남은 과제들을 더욱 부각시키는 계기가 되었다. 정확도 자체가 더 이상 주요 병목 현상이 아니게 되자, 연구 커뮤니티의 관심은 자연스럽게 모델이 여전히 실패하는 예외적인 경우들, 즉 강건성(가림, 포즈), 장기 신뢰성(노화), 그리고 공정성(인구 통계학적 편향) 문제로 옮겨갔다. 연구실 환경에서의 1% 오류율은 수용 가능할지 몰라도, 실제 법 집행이나 금융 분야에서는 부당한 체포나 금융 차별을 의미할 수 있다. 따라서 ArcFace의 성공은 연구의 초점을 “어떻게 더 정확하게 만들 것인가?”에서 “어떻게 더 신뢰할 수 있고 공정하게 만들 것인가?”로 전환시키는 촉매제 역할을 했다.

ArcFace가 제시한 높은 기준점 위에서, 후속 연구들은 ArcFace의 한계를 극복하고 더 복잡한 실제 문제에 대응하기 위해 손실 함수를 더욱 정교하게 발전시키는 방향으로 나아갔다.

대규모 웹 데이터셋에 필연적으로 포함되는 레이블 노이즈 문제를 해결하기 위해 Sub-center ArcFace가 제안되었다.56 기존 ArcFace가 각 클래스마다 하나의 중심(center)을 가정하는 것과 달리, 이 방법은 각 클래스에 대해 K개의 하위 중심(sub-center)을 설정한다. 학습 과정에서 각 샘플은 K개의 긍정적 하위 중심 중 가장 가까운 하나에만 근접하도록 최적화된다.25

이러한 완화된 제약 조건은 깨끗한 대다수의 샘플들이 자연스럽게 하나의 지배적인 하위 중심(dominant sub-center)을 형성하도록 유도하고, 레이블이 잘못되었거나 품질이 낮은 노이즈 샘플들은 다른 비지배적 하위 중심(non-dominant sub-centers)으로 분리되도록 만든다. 이를 통해 노이즈 데이터가 전체 학습 과정에 미치는 악영향을 줄여 모델의 강건성을 크게 향상시킨다.56

ArcFace의 고정된 마진 값($m=0.5$)이 모든 이미지에 최적은 아니라는 문제의식에서 품질 적응형 마진(quality-adaptive margin) 개념이 등장했다. 특히 저품질 이미지는 식별 가능한 정보가 부족하여, 여기에 강한 마진 제약을 가하면 오히려 학습을 방해할 수 있다.59

CNN의 대안으로, 이미지의 전역적인 컨텍스트와 장거리 의존성(long-range dependencies)을 효과적으로 모델링할 수 있는 Vision Transformer(ViT)가 얼굴 인식 분야에 활발히 도입되고 있다.64 초기 연구들은 ViT를 백본으로 사용하고 기존의 ArcFace 손실 함수를 그대로 적용하는 것만으로도 SOTA 성능을 달성할 수 있음을 보였다.66

최근에는 ViT 아키텍처의 특성을 손실 함수 설계에 직접 통합하려는 시도도 나타나고 있다. 예를 들어, CNN의 마지막 컨볼루션 레이어 출력(공간 정보가 보존된 2D 특징 맵)을 순차적인 패치로 만들어 ViT 인코더에 입력하고, 여기서 추가적인 손실을 계산하는 방식이 제안되었다. 이는 특히 노화로 인한 국소적인 텍스처 변화에 강건한 특징을 학습하는 데 효과적일 수 있다.67

웹에서 수집된 실제 데이터셋이 가진 프라이버시, 저작권, 편향 문제를 근본적으로 해결하기 위해 합성 데이터(synthetic data) 생성 기술이 주목받고 있다. 초기에는 GAN(Generative Adversarial Network)이 주로 사용되었으나, 최근에는 더 높은 품질과 다양성을 제공하는 Diffusion Model을 활용하여 대규모 합성 얼굴 데이터셋을 생성하는 연구가 활발히 진행 중이다.69 이러한 기술은 인종, 성별, 연령 등 인구 통계학적 분포를 정밀하게 제어하여 공정한(fair) 모델을 학습시키거나, 특정 포즈나 액세서리를 착용한 이미지를 생성하여 데이터 증강에 활용하는 등 무한한 가능성을 열고 있다.71

연합 학습(Federated Learning, FL)은 개인의 데이터를 중앙 서버로 전송하지 않고, 각 클라이언트(예: 개인 스마트폰)에서 로컬로 모델을 학습한 뒤 모델의 변경 사항(가중치 업데이트)만을 공유하여 프라이버시를 보호하는 분산 학습 패러다임이다.73 얼굴 인식과 같이 민감한 데이터를 다루는 분야에서 FL의 중요성은 더욱 커지고 있다. 최근 연구들은 각 클라이언트에서 ArcFace나 CosFace와 같은 강력한 손실 함수를 사용하여 로컬 모델을 효과적으로 최적화하고, 이를 안전하게 집계하여 성능 저하를 최소화하는 프레임워크를 제안하고 있다.75

ArcFace 이후의 연구 동향은 ArcFace의 핵심 원리를 대체하기보다는, 이를 안정적이고 신뢰할 수 있는 기반으로 삼아 더 복잡하고 특수한 문제들을 해결하기 위한 혁신을 추가하는 방향으로 전개되고 있다. AdaFace와 MagFace는 ArcFace의 고정된 마진을 적응적으로 만들고, ViT 연구는 ArcFace를 새로운 아키텍처에 이식하며, 연합 학습 연구는 ArcFace를 새로운 학습 패러다임에 적용한다. 이는 ArcFace의 성공이 얼굴 인식의 핵심 문제에 대한 강력한 해법을 제시함으로써, 연구자들이 더 높은 수준의 과제에 자신감 있게 도전할 수 있는 안정적인 플랫폼을 마련해주었음을 의미한다.

ArcFace 기술은 학술적 성과를 넘어 실제 산업 현장에서 다양한 형태로 응용되고 있다. 이를 위해서는 모델 경량화, 판단 근거에 대한 설명 가능성 확보, 그리고 구체적인 응용 사례에 대한 이해가 필수적이다.

실제 엣지 디바이스(모바일 기기, 임베디드 시스템)에 얼굴 인식 모델을 배포하기 위해서는 모델의 크기를 줄이고 추론 속도를 높이는 경량화 과정이 필수적이다. 양자화(Quantization)는 모델의 가중치와 활성화 값을 기존의 32비트 부동소수점(FP32)에서 8비트 정수(INT8)와 같이 더 낮은 정밀도로 변환하는 대표적인 경량화 기술이다.77

INT8 양자화는 모델 크기를 약 4분의 1로 줄이고, 지원되는 하드웨어(예: GPU, NPU)에서 추론 속도를 크게 향상시키는 효과가 있다.79 그러나 이 과정에서 발생하는 정보 손실로 인해 정확도 저하가 발생할 수 있다. 일반적으로 학습 후에 양자화를 적용하는 PTQ(Post-Training Quantization) 방식보다, 학습 과정에서 양자화로 인한 오차를 미리 시뮬레이션하여 모델이 이에 적응하도록 하는 QAT(Quantization-Aware Training) 방식이 정확도 손실을 최소화(1% 이내)하는 데 더 효과적이다.80 한 연구에서는 8비트 양자화가 ArcFace와 같은 모델의 정확도에 미미한 영향을 미친다고 보고하여, 효율성과 성능 간의 균형을 맞출 수 있음을 시사했다.81

ArcFace와 같은 심층 신경망은 높은 성능에도 불구하고 내부 작동 원리를 이해하기 어려운 ‘블랙박스’ 모델이라는 한계를 가진다. 설명가능 AI(Explainable AI, XAI)는 이러한 모델의 판단 근거를 인간이 이해할 수 있는 형태로 시각화하고 설명하는 것을 목표로 한다.82

Grad-CAM (Gradient-weighted Class Activation Mapping)은 특정 예측 결과에 대해 모델이 입력 이미지의 어느 영역에 집중했는지를 히트맵(heatmap) 형태로 시각화하는 대표적인 XAI 기법이다.84 이는 마지막 컨볼루션 레이어의 특징 맵(feature map)에 대한 예측값의 그래디언트(gradient)를 가중치로 사용하여 활성화 맵을 생성하는 원리로 작동한다.

얼굴 인식에 Grad-CAM을 적용하면, ArcFace 모델이 두 얼굴 이미지를 ‘동일 인물’이라고 판단할 때 주로 눈, 코, 입 주변의 어떤 특정 영역에 집중했는지, 또는 ‘다른 인물’이라고 판단할 때 어떤 부분의 차이를 근거로 삼았는지 시각적으로 확인할 수 있다.85 이는 모델의 행동을 분석하고, 실패 사례의 원인을 파악하며, 최종적으로 시스템의 신뢰도를 높이는 데 중요한 역할을 한다.86

InsightFace와 ArcFace 기술의 높은 정확도와 강건성은 다양한 상용 제품 및 서비스에 성공적으로 적용되는 기반이 되었다.

ArcFace 기술의 광범위한 응용은 기술의 이중성을 명확히 보여준다. 이 기술은 편리한 모바일 뱅킹 인증 89과 같이 산업에 향상된 보안과 효율성을 제공하며 개인의 삶을 윤택하게 만들지만, 동시에 대규모 감시 87, 프라이버시 침해, 알고리즘 편향으로 인한 차별 49과 같은 중대한 윤리적 위험을 내포한다. 모델에 내재된 인구 통계학적 편향은 금융 분야에서는 대출 심사 거부로, 보안 분야에서는 소수 집단에 대한 부당한 체포로 이어질 수 있다.50 따라서 ArcFace가 연구실의 성과에서 널리 배포되는 기술로 전환된 것은 단순한 기술적 성공을 넘어, 강력한 AI 도구를 어떻게 규제하고 배포하여 해악을 최소화하고 이익을 극대화할 것인가에 대한 사회적, 윤리적 논의를 촉발하는 중요한 사례가 되었다.

ArcFace는 딥러닝 기반 얼굴 인식 연구의 역사에서 하나의 분기점을 마련했다. 첫째, $\cos(\theta+m)$이라는 간결하고 강력한 공식은 직관적인 기하학적 해석(초구면 위 지오데식 거리 마진)과 안정적인 학습, 그리고 SOTA 성능을 동시에 달성하며 마진 기반 손실 함수의 새로운 표준을 제시했다.

둘째, InsightFace 프로젝트는 고품질의 정제된 데이터셋(MS1MV2)과 최적화된 백본 아키텍처를 오픈소스로 제공함으로써, 학계와 산업계 전반의 관련 연구 개발을 가속화하는 데 결정적으로 기여했다. 이는 재현 가능한 연구 환경을 조성하고 진입 장벽을 낮추는 역할을 했다.

마지막으로, ArcFace의 압도적인 성공은 연구의 패러다임을 전환시키는 촉매제가 되었다. 단순 정확도 경쟁에서 벗어나, 데이터 품질, 노이즈에 대한 강건성, 인구 통계학적 공정성, 모델 효율성, 설명가능성 등 더 복잡하고 현실적인 문제로 연구의 초점을 이동시켰다.

ArcFace가 구축한 견고한 기반 위에서, 미래의 얼굴 인식 기술은 다음과 같은 방향으로 발전할 것으로 전망된다.

  1. ArcFace: Additive Angular Margin Loss for Deep Face Recognition - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/322674945_ArcFace_Additive_Angular_Margin_Loss_for_Deep_Face_Recognition
  2. X2-Softmax: Margin Adaptive Loss Function for Face Recognition - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/html/2312.05281v2
  3. ArcFace: Additive Angular Margin Loss for Deep Face Recognition by Mostafa Gazar 1-minute papers Medium, 8월 18, 2025에 액세스, https://medium.com/1-minute-papers/arcface-additive-angular-margin-loss-for-deep-face-recognition-d02297605f8d
  4. Class-Variant Margin Normalized Softmax Loss for Deep Face Recognition - UCL Discovery, 8월 18, 2025에 액세스, https://discovery.ucl.ac.uk/10108878/1/WanpingZhang-TNNLS-final.pdf
  5. ArcFace loss function for Deep Face Recognition by payyavula saiprakash - Medium, 8월 18, 2025에 액세스, https://medium.com/@payyavulasaiprakash/arcface-loss-function-for-deep-face-recognition-e1ff5e173b52
  6. llllllllllllllily/face-recognition-supervised-by-center-loss - GitHub, 8월 18, 2025에 액세스, https://github.com/llllllllllllllily/face-recognition-supervised-by-center-loss
  7. [1801.07698] ArcFace: Additive Angular Margin Loss for Deep Face Recognition - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/abs/1801.07698
  8. Trading-off Mutual Information on Feature Aggregation for Face Recognition - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/pdf/2309.13137
  9. Cosface: Large Margin Cosine Loss For Deep Face Recognition - Scribd, 8월 18, 2025에 액세스, https://www.scribd.com/document/686090262/1801-09414v2
  10. CosFace: Large Margin Cosine Loss for Deep Face Recognition, 8월 18, 2025에 액세스, https://arxiv.org/abs/1801.09414
  11. arXiv:1801.09414v2 [cs.CV] 3 Apr 2018, 8월 18, 2025에 액세스, https://arxiv.org/pdf/1801.09414
  12. SphereFace: Deep Hypersphere Embedding for Face Recognition - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content_cvpr_2017/papers/Liu_SphereFace_Deep_Hypersphere_CVPR_2017_paper.pdf
  13. [1704.08063] SphereFace: Deep Hypersphere Embedding for Face …, 8월 18, 2025에 액세스, https://ar5iv.labs.arxiv.org/html/1704.08063
  14. SphereFace: Deep Hypersphere Embedding for Face Recognition - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/386783886_SphereFace_Deep_Hypersphere_Embedding_for_Face_Recognition
  15. ArcFace: Additive Angular Margin Loss for Deep … - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content_CVPR_2019/papers/Deng_ArcFace_Additive_Angular_Margin_Loss_for_Deep_Face_Recognition_CVPR_2019_paper.pdf
  16. CosFace: Large Margin Cosine Loss for Deep Face Recognition - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/322788225_CosFace_Large_Margin_Cosine_Loss_for_Deep_Face_Recognition
  17. A Discriminative Feature Learning Approach for … - Yandong Wen, 8월 18, 2025에 액세스, https://ydwen.github.io/papers/WenECCV16.pdf
  18. ArcFace: Additive Angular Margin Loss for Deep Face Recognition - InsightFace, 8월 18, 2025에 액세스, https://insightface.ai/arcface
  19. Comparing Angular Margin Loss Functions by zestyoreo - Medium, 8월 18, 2025에 액세스, https://zestyoreo9.medium.com/comparing-angular-margin-loss-functions-31f62c6f4032
  20. InsightFace_Pytorch/README.md at master - GitHub, 8월 18, 2025에 액세스, https://github.com/TreB1eN/InsightFace_Pytorch/blob/master/README.md
  21. LFW Benchmark (Lightweight Face Recognition) - Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/sota/lightweight-face-recognition-on-lfw
  22. MS-Celeb-1M: A Dataset and Benchmark for Large-Scale Face Recognition - Microsoft, 8월 18, 2025에 액세스, https://www.microsoft.com/en-us/research/wp-content/uploads/2016/08/MSCeleb-1M-a.pdf
  23. MS-Celeb-1M (MS1M) - Exposing.ai, 8월 18, 2025에 액세스, https://exposing.ai/msceleb/
  24. MS-Celeb-1M: Challenge of Recognizing One Million Celebrities in the Real World, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/312960629_MS-Celeb-1M_Challenge_of_Recognizing_One_Million_Celebrities_in_the_Real_World
  25. Sub-center ArcFace: Boosting Face Recognition by Large-scale Noisy Web Faces, 8월 18, 2025에 액세스, https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123560715.pdf
  26. arXiv:2108.08191v1 [cs.CV] 18 Aug 2021, 8월 18, 2025에 액세스, https://arxiv.org/pdf/2108.08191
  27. InsightFace Model Zoo - Gitee, 8월 18, 2025에 액세스, https://gitee.com/haipp/insightface/wikis/pages/export?doc_id=638776&type=pdf
  28. deepinsight/insightface: State-of-the-art 2D and 3D Face Analysis Project - GitHub, 8월 18, 2025에 액세스, https://github.com/deepinsight/insightface
  29. Implementation for
  30. hukangli/https-github.com-deepinsight-insightface, 8월 18, 2025에 액세스, https://github.com/hukangli/https-github.com-deepinsight-insightface
  31. TreB1eN/InsightFace_Pytorch: Pytorch0.4.1 codes for … - GitHub, 8월 18, 2025에 액세스, https://github.com/TreB1eN/InsightFace_Pytorch
  32. LFW Benchmark (Face Verification) - Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/sota/face-verification-on-lfw
  33. LFW Benchmark (Face Anonymization) - Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/sota/face-anonymization-on-lfw
  34. Labeled Faces in the Wild Benchmark (Face Verification) Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/sota/face-verification-on-labeled-faces-in-the?p=facenet-a-unified-embedding-for-face
  35. AdaFace: Quality Adaptive Margin for Face Recognition Request PDF - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/359729553_AdaFace_Quality_Adaptive_Margin_for_Face_Recognition
  36. Comparative Analysis of State-of-the-Art Face Recognition Models: FaceNet, ArcFace, and OpenFace Using Image Classification Metrics - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/377935125_Comparative_Analysis_of_State-of-the-Art_Face_Recognition_Models_FaceNet_ArcFace_and_OpenFace_Using_Image_Classification_Metrics
  37. The MegaFace Benchmark: 1 Million Faces for Recognition at Scale, 8월 18, 2025에 액세스, https://megaface.cs.washington.edu/KemelmacherMegaFaceCVPR16.pdf
  38. MegaFace Dataset - Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/dataset/megaface
  39. MegaFace Benchmark (Face Identification) Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/sota/face-identification-on-megaface?p=arcface-additive-angular-margin-loss-for-deep
  40. IJB-C Benchmark (Face Verification) Papers With Code, 8월 18, 2025에 액세스, https://paperswithcode.com/sota/face-verification-on-ijb-c?p=it-s-all-in-the-head-representation-knowledge
  41. IARPA Janus Benchmark C - Exposing.ai, 8월 18, 2025에 액세스, https://exposing.ai/ijb_c/
  42. Pushing Face Recognition to the Limit: ArcFace vs QMagFace on LFW by Aylin Aydin Medium, 8월 18, 2025에 액세스, https://medium.com/@aylin.aydin/pushing-face-recognition-to-the-limit-arcface-vs-qmagface-on-lfw-2aba30458e51
  43. Reviewing 6D Pose Estimation: Model Strengths, Limitations, and Application Fields - MDPI, 8월 18, 2025에 액세스, https://www.mdpi.com/2076-3417/15/6/3284
  44. Efficient Detection of Occlusion prior to Robust Face Recognition - PMC, 8월 18, 2025에 액세스, https://pmc.ncbi.nlm.nih.gov/articles/PMC3914590/
  45. An Analysis of Face Recognition under Face Mask Occlusions - Aircc Digital Library, 8월 18, 2025에 액세스, https://aircconline.com/csit/papers/vol11/csit111804.pdf
  46. Aging effects in automated face recognition - Purdue e-Pubs, 8월 18, 2025에 액세스, https://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1911&context=open_access_theses
  47. Deep Face Age Progression: A Survey - NTNU Open, 8월 18, 2025에 액세스, https://ntnuopen.ntnu.no/ntnu-xmlui/bitstream/handle/11250/3045091/Grimmer.pdf?sequence=1
  48. Impact Of Age And Ageing On Face Recognition Performance - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/343520441_Impact_Of_Age_And_Ageing_On_Face_Recognition_Performance
  49. How To Mitigate Facial Recognition Bias in Identity Verification - HyperVerge, 8월 18, 2025에 액세스, https://hyperverge.co/blog/mitigating-facial-recognition-bias/
  50. Biased Technology: The Automated Discrimination of Facial Recognition ACLU of Minnesota, 8월 18, 2025에 액세스, https://www.aclu-mn.org/en/news/biased-technology-automated-discrimination-facial-recognition
  51. The Problem of Bias in Facial Recognition Strategic Technologies Blog - CSIS, 8월 18, 2025에 액세스, https://www.csis.org/blogs/strategic-technologies-blog/problem-bias-facial-recognition
  52. Facing Bias in Facial Recognition Technology The Regulatory Review, 8월 18, 2025에 액세스, https://www.theregreview.org/2021/03/20/saturday-seminar-facing-bias-in-facial-recognition-technology/
  53. Understanding bias in facial recognition technologies - The Alan Turing Institute, 8월 18, 2025에 액세스, https://www.turing.ac.uk/sites/default/files/2020-10/understanding_bias_in_facial_recognition_technology.pdf
  54. Mitigating Bias in Face Recognition Using Skewness-Aware Reinforcement Learning - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content_CVPR_2020/papers/Wang_Mitigating_Bias_in_Face_Recognition_Using_Skewness-Aware_Reinforcement_Learning_CVPR_2020_paper.pdf
  55. Ethics of Facial Recognition: Key Issues and Solutions - G2 Learning Hub, 8월 18, 2025에 액세스, https://learn.g2.com/ethics-of-facial-recognition
  56. Sub-center arcface: boosting face recognition by large-scale noisy web faces - Spiral, 8월 18, 2025에 액세스, https://spiral.imperial.ac.uk/entities/publication/e24ad336-f1a5-452a-a0c4-80c54c2a9eba
  57. SubCenter ArcFace InsightFace: an open source 2D&3D deep face analysis library, 8월 18, 2025에 액세스, https://insightface.ai/subcenter
  58. ArcFace: Additive Angular Margin Loss for Deep Face Recognition alphaXiv, 8월 18, 2025에 액세스, https://www.alphaxiv.org/overview/1801.07698v4
  59. AdaFace: Quality Adaptive Margin for Face Recognition - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content/CVPR2022/papers/Kim_AdaFace_Quality_Adaptive_Margin_for_Face_Recognition_CVPR_2022_paper.pdf
  60. MagFace: A Universal Representation for Face Recognition and Quality Assessment - ar5iv, 8월 18, 2025에 액세스, https://ar5iv.labs.arxiv.org/html/2103.06627
  61. MagFace: A Universal Representation for Face Recognition and Quality Assessment - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content/CVPR2021/papers/Meng_MagFace_A_Universal_Representation_for_Face_Recognition_and_Quality_Assessment_CVPR_2021_paper.pdf
  62. AdaFace: Quality Adaptive Margin for Face Recognition - Computer Vision Lab - Michigan State University, 8월 18, 2025에 액세스, http://cvlab.cse.msu.edu/project-adaface.html
  63. [2204.00964] AdaFace: Quality Adaptive Margin for Face Recognition - ar5iv - arXiv, 8월 18, 2025에 액세스, https://ar5iv.labs.arxiv.org/html/2204.00964
  64. arXiv:2504.09076v1 [cs.CV] 12 Apr 2025, 8월 18, 2025에 액세스, https://arxiv.org/pdf/2504.09076
  65. Vision Transformers (ViT) in Image Recognition - GeeksforGeeks, 8월 18, 2025에 액세스, https://www.geeksforgeeks.org/computer-vision/vision-transformers-vit-in-image-recognition/
  66. Part-based Face Recognition with Vision Transformers - BMVC 2022, 8월 18, 2025에 액세스, https://bmvc2022.mpi-inf.mpg.de/0611.pdf
  67. Transformer-Based Auxiliary Loss for Face Recognition Across Age Variations - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/html/2412.02198v2
  68. Transformer-Based Auxiliary Loss for Face Recognition Across Age Variations - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/pdf/2412.02198
  69. Synthetic data for face recognition: Current state and future prospects - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/370713062_Synthetic_data_for_face_recognition_Current_state_and_future_prospects
  70. GANDiffFace: Controllable Generation of Synthetic Datasets for Face Recognition with Realistic Variations - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content/ICCV2023W/AMFG/papers/Melzi_GANDiffFace_Controllable_Generation_of_Synthetic_Datasets_for_Face_Recognition_with_ICCVW_2023_paper.pdf
  71. Synthetic Face Datasets Generation via Latent Space Exploration from Brownian Identity Diffusion OpenReview, 8월 18, 2025에 액세스, https://openreview.net/forum?id=QxOgS8WwCr¬eId=ZIUCxDawpJ
  72. VariFace: Fair and Diverse Synthetic Dataset Generation for Face Recognition - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/html/2412.06235v2
  73. Federated Learning for Face Recognition via Intra-subject Self-supervised Learning - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/html/2407.16289v1
  74. Federated Learning for Face Recognition with Gradient Correction - AAAI, 8월 18, 2025에 액세스, https://cdn.aaai.org/ojs/20095/20095-13-24108-1-2-20220628.pdf
  75. Federated Learning for Face Recognition via Intra-subject Self-supervised Learning - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/abs/2407.16289
  76. AdaFedFR: Federated Face Recognition with Adaptive Inter-Class Representation Learning - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/pdf/2405.13467
  77. The Impact of 8- and 4-Bit Quantization on the Accuracy and Silicon Area Footprint of Tiny Neural Networks - MDPI, 8월 18, 2025에 액세스, https://www.mdpi.com/2079-9292/14/1/14
  78. A Comprehensive Study on Quantization Techniques for Large Language Models - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/html/2411.02530v1
  79. How does quantization (such as int8 quantization or using float16) affect the accuracy and speed of Sentence Transformer embeddings and similarity calculations? - Milvus, 8월 18, 2025에 액세스, https://milvus.io/ai-quick-reference/how-does-quantization-such-as-int8-quantization-or-using-float16-affect-the-accuracy-and-speed-of-sentence-transformer-embeddings-and-similarity-calculations
  80. Improving INT8 Accuracy Using Quantization Aware Training and the NVIDIA TAO Toolkit, 8월 18, 2025에 액세스, https://developer.nvidia.com/blog/improving-int8-accuracy-using-quantization-aware-training-and-tao-toolkit/
  81. A Case Study of Face Detection for Face Verification - Edge AI and Vision Alliance, 8월 18, 2025에 액세스, https://www.edge-ai-vision.com/wp-content/uploads/2021/01/Salazar_Imagination_2020_Embedded_Vision_Summit_Slides_Final.pdf
  82. Explainable Face Recognition Based on Accurate Facial Compositions - CVF Open Access, 8월 18, 2025에 액세스, https://openaccess.thecvf.com/content/ICCV2021W/MFR/papers/Jiang_Explainable_Face_Recognition_Based_on_Accurate_Facial_Compositions_ICCVW_2021_paper.pdf
  83. A Comparison on Explainability Methods in the Field of Facial Recognition - TU Wien’s reposiTUm, 8월 18, 2025에 액세스, https://repositum.tuwien.at/bitstream/20.500.12708/195849/1/Griesmayer%20Max%20-%202024%20-%20Explainable%20AI%20A%20Comparison%20on%20Explainability%20Methods%20in…pdf
  84. Introduction to Grad-CAM - XAI Tutorials, 8월 18, 2025에 액세스, https://xai-tutorials.readthedocs.io/en/latest/_model_specific_xai/Grad-CAM.html
  85. Discriminative Deep Feature Visualization for Explainable Face Recognition - arXiv, 8월 18, 2025에 액세스, https://arxiv.org/pdf/2306.00402
  86. jacobgil/pytorch-grad-cam: Advanced AI Explainability for computer vision. Support for CNNs, Vision Transformers, Classification, Object detection, Segmentation, Image similarity and more. - GitHub, 8월 18, 2025에 액세스, https://github.com/jacobgil/pytorch-grad-cam
  87. Real time face recognition system based on YOLO and InsightFace - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/374027853_Real_time_face_recognition_system_based_on_YOLO_and_InsightFace
  88. Facial recognition: Is it safe for financial firms? - FIMPE, 8월 18, 2025에 액세스, https://fimpe.org/en/2025/08/11/facial-recognition-is-it-safe-for-financial-firms/
  89. Top 7 Use Cases of Facial Recognition in 2024 - Folio3 AI, 8월 18, 2025에 액세스, https://www.folio3.ai/blog/use-cases-of-facial-recognition/
  90. How Banks and Financial Institutions Can Use Facial Recognition to Protect People, Property, & Assets BriefCam, 8월 18, 2025에 액세스, https://www.briefcam.com/resources/blog/how-banks-and-financial-institutions-use-face-recognition-to-protect-people-property-and-assets/
  91. InsightFace: an open source 2D&3D deep face analysis library, 8월 18, 2025에 액세스, https://insightface.ai/
  92. Products - InsightFace: an open source 2D&3D deep face analysis library, 8월 18, 2025에 액세스, https://insightface.ai/products
  93. Deep Visual Computing of Behavioral Characteristics in Complex Scenarios and Embedded Object Recognition Applications - MDPI, 8월 18, 2025에 액세스, https://www.mdpi.com/1424-8220/24/14/4582
  94. (PDF) DebFace: De-biasing Face Recognition - ResearchGate, 8월 18, 2025에 액세스, https://www.researchgate.net/publication/337386759_DebFace_De-biasing_Face_Recognition
  95. [1911.08080] Jointly De-biasing Face Recognition and Demographic Attribute Estimation, 8월 18, 2025에 액세스, https://arxiv.org/abs/1911.08080