Booil Jung

컴퓨터 비전 학습 로드맵

컴퓨터 비전은 인공지능(AI)의 한 분야로, 기계가 시각적 세계를 해석하고 이해하도록 훈련시키는 학문입니다.1 인간의 시각 시스템이 평생의 경험을 통해 세상을 보고 이해하는 것처럼, 컴퓨터 비전은 카메라, 데이터, 알고리즘을 통해 기계에 ‘눈’을 부여하여 이미지와 동영상 속에서 객체를 식별하고, 움직임을 추적하며, 장면을 이해하는 것을 목표로 합니다.2

이 기술은 단순히 학문적 호기심을 넘어, 우리 생활과 산업 전반에 깊숙이 자리 잡고 있습니다. 자율주행차는 컴퓨터 비전을 통해 도로와 보행자를 인식하고 3, 의료 분야에서는 의사들이 질병을 더 빠르고 정확하게 진단하도록 돕습니다.1 제조 공장에서는 불량품을 자동으로 검수하고 4, 농업에서는 작물의 성장을 관리하며 3, 소매점에서는 고객 경험을 혁신합니다.6

본 보고서는 컴퓨터 비전을 배우고자 하는 학습자를 위해 기초부터 최신 기술까지 아우르는 체계적인 학습 로드맵을 제시합니다. 이 여정은 디지털 이미지를 구성하는 가장 작은 단위인 픽셀에서 시작하여, 전통적인 이미지 처리 기법을 거쳐, 딥러NING 혁명을 이끈 합성곱 신경망(CNN)과 그 발전 과정을 탐구합니다. 나아가, 현재 컴퓨터 비전의 최전선에 있는 비전 트랜스포머(ViT), 생성형 AI(GAN, 디퓨전 모델), 그리고 자기 지도 학습(SSL)과 같은 고급 주제들을 다룰 것입니다. 마지막으로, 이 강력한 기술을 책임감 있게 사용하기 위해 반드시 알아야 할 윤리적 문제와 연구 동향, 미래 전망까지 조망하며 컴퓨터 비전 전문가로 성장하기 위한 완전한 가이드를 제공하는 것을 목표로 합니다.

이 파트에서는 컴퓨터 비전 분야 전체의 개념적, 실용적 토대를 마련합니다. 컴퓨터 비전의 정의와 역사부터 시작하여, 분석의 기본 단위인 디지털 이미지의 구조, 그리고 실습에 필수적인 도구와 데이터셋에 대해 학습합니다.

컴퓨터 비전(Computer Vision)은 기계(컴퓨터)가 인간의 시각 시스템이 수행하는 작업을 자동화하도록 하는 인공지능의 한 분야입니다.5 근본적인 목표는 디지털 이미지나 비디오와 같은 시각적 데이터로부터 의미 있는 정보를 추출하고 해석하여, 이를 바탕으로 특정 작업을 수행하거나 의사결정을 내리는 것입니다.5 이는 단순히 이미지를 ‘보는’ 것을 넘어, 그 안에 담긴 객체, 장면, 활동을 ‘이해’하는 것을 포함합니다. 예를 들어, 시스템은 이미지를 보고 ‘고양이’라는 레이블을 붙이는 것(분류)뿐만 아니라, 이미지 속 고양이의 위치를 찾아내고(탐지), 심지어는 ‘소파 위에서 잠자고 있는 고양이’라는 장면 전체의 맥락을 파악하는(장면 이해) 수준에 도달하는 것을 지향합니다.

컴퓨터 비전의 역사는 하드웨어, 데이터, 알고리즘의 발전과 궤를 같이하는 흥미로운 여정입니다. 이 세 요소의 상호작용이 어떻게 오늘날의 혁신을 이끌었는지 이해하는 것은 매우 중요합니다.

컴퓨터 비전은 다양한 하위 과제들로 구성되며, 이들은 종종 복합적으로 사용되어 복잡한 문제를 해결합니다.

1.2. 디지털 이미지: 픽셀, 색 공간, 히스토그램

컴퓨터 비전의 가장 기본적인 분석 단위는 디지털 이미지입니다. 컴퓨터에게 이미지는 단순히 그림이 아니라, 숫자로 이루어진 거대한 행렬 또는 텐서(Tensor)입니다.19 이 숫자들의 의미와 구조를 이해하는 것이 모든 이미지 처리의 출발점입니다.

디지털 이미지는 픽셀(Pixel, Picture Element)이라는 작은 사각형 점들의 2차원 격자(Grid)로 구성됩니다.19 각 픽셀은 이미지의 특정 위치에서의 색상과 밝기 정보를 담고 있으며, 이 픽셀들이 모여 전체 이미지를 형성합니다. 컴퓨터는 이 픽셀 값들을 숫자 행렬로 인식하여 처리합니다.19

픽셀이 어떻게 색을 표현하는지는 ‘색 깊이(Color Depth)’와 ‘색 공간(Color Space)’에 의해 결정됩니다.

이미지 히스토그램은 이미지에 포함된 픽셀들의 명암 값 분포를 그래프로 나타낸 것입니다.27

컴퓨터 비전을 실제로 구현하기 위해서는 적절한 도구를 선택하고 활용하는 능력이 필수적입니다. 현재 컴퓨터 비전 분야는 고전적인 알고리즘을 위한 라이브러리와 딥러닝 모델을 위한 프레임워크로 양분되어 있습니다.

OpenCV(Open Source Computer Vision Library)는 컴퓨터 비전과 머신러닝을 위한 가장 대표적인 오픈소스 라이브러리입니다.32 1999년 인텔에서 시작되어 C++로 개발되었으며, 현재는 Python, Java 등 다양한 언어를 지원합니다.32

현대의 컴퓨터 비전은 딥러닝과 동의어처럼 사용될 정도로 딥러닝 모델, 특히 CNN에 크게 의존합니다. PyTorch와 TensorFlow는 이러한 딥러닝 모델을 구축, 훈련, 배포하기 위한 가장 강력하고 널리 사용되는 두 프레임워크입니다.35 학습자는 자신의 목표와 선호도에 따라 프레임워크를 선택해야 합니다.

특징 PyTorch TensorFlow 학습자를 위한 핵심
계산 그래프 동적 (Define-by-Run) 36 정적 (Define-and-Run) (TF 1.x) / 동적 (TF 2.x Eager Execution) 36 PyTorch는 코드가 실행되는 시점에 그래프를 생성하여 유연하고 디버깅이 직관적입니다. 연구와 프로토타이핑에 유리합니다. TensorFlow는 먼저 그래프를 정의하고 세션을 통해 실행하여 최적화와 배포에 강점이 있었습니다.
API 스타일 및 사용 편의성 Pythonic, 직관적 37 Keras를 통한 고수준 API 제공, 유연성은 다소 낮음 37 PyTorch는 Python 프로그래머에게 매우 친숙한 객체지향적 구조를 가집니다. TensorFlow는 Keras를 통해 사용이 간편해졌지만, 여전히 PyTorch가 더 유연하고 배우기 쉽다는 평이 많습니다.
디버깅 Python 표준 디버거(pdb 등) 사용 가능, 용이함 39 상대적으로 복잡, 전용 디버거 필요 (TF 1.x) 40 동적 그래프 덕분에 PyTorch는 중간 계산 값을 확인하는 등 디버깅이 훨씬 쉽습니다. 이는 학습 과정에서 매우 큰 장점입니다.
배포 및 상용화 TorchServe, PyTorch Live 등 발전 중이나 아직은 미성숙 35 TensorFlow Serving, TFLite, TF.js 등 성숙하고 강력한 생태계 보유 41 상용 제품이나 모바일/IoT/웹에 모델을 배포하는 것이 목표라면 TensorFlow가 여전히 강력한 우위를 점하고 있습니다.
커뮤니티 및 연구 동향 연구 커뮤니티에서 압도적 우위, 최신 논문 대부분 PyTorch로 구현 35 구글의 강력한 지원, 산업계에서 넓은 사용자 기반 보유 37 최신 연구 동향을 따라가고 새로운 모델을 빠르게 실험해보고 싶다면 PyTorch가 필수적입니다. HuggingFace와 같은 모델 허브에서도 PyTorch 모델이 대다수입니다.
시각화 도구 Visdom (기능 제한적), TensorBoard 통합 지원 TensorBoard (매우 강력하고 표준적인 도구) 36 TensorBoard는 훈련 과정의 손실, 정확도, 가중치 분포 등을 시각화하는 데 매우 강력한 도구이며, 현재는 PyTorch에서도 쉽게 사용할 수 있습니다.

학습자를 위한 제언: 컴퓨터 비전의 원리와 딥러닝 모델링 자체를 깊이 있게 배우고 싶다면 PyTorch로 시작하는 것을 강력히 추천합니다.41 파이썬 친화적인 문법과 직관적인 디버깅 환경은 학습 곡선을 완만하게 만들어주며, 최신 연구 논문들을 직접 구현하고 실험해보기에 가장 좋은 환경을 제공합니다. 하지만 최종 목표가 산업 현장에서의 모델 배포와 서비스화에 있다면, TensorFlow의 강력한 배포 도구들(TFX, TFLite)에 대해서도 반드시 학습해두어야 합니다.41

대규모의 고품질 데이터셋은 현대 딥러닝 기반 컴퓨터 비전의 발전을 이끈 핵심 동력입니다. 그중에서도 이미지넷(ImageNet)과 COCO는 가장 중요하고 상징적인 데이터셋입니다.

이미지넷은 WordNet의 계층 구조에 따라 정리된 대규모 이미지 데이터베이스입니다.44

COCO(Common Objects in Context)는 이미지 분류를 넘어 더 복잡하고 현실적인 장면 이해를 목표로 하는 데이터셋입니다.49

이러한 특성 때문에 COCO는 객체 탐지, 인스턴스 분할(Instance Segmentation), 키포인트 탐지 모델의 성능을 평가하는 표준 벤치마크로 자리 잡았습니다.54

딥러닝이 컴퓨터 비전의 주류가 되기 전, 이 분야는 수십 년간 정교하게 다듬어진 수학적, 통계적 알고리즘에 의해 발전해 왔습니다. 이러한 ‘수작업(hand-crafted)’ 기법들을 이해하는 것은 두 가지 중요한 의미를 가집니다. 첫째, 이미지에서 어떤 특징이 중요한지에 대한 근본적인 직관을 제공합니다. 둘째, 이 기법들은 여전히 현대 딥러닝 파이프라인에서 전처리, 후처리, 혹은 특정 모듈의 일부로 활발히 사용되고 있습니다.

이미지 전처리는 원본 이미지로부터 유의미한 정보를 추출하기 쉽도록 이미지를 변환하거나 개선하는 과정입니다. 노이즈를 제거하고, 특징을 강조하며, 분석에 적합한 형태로 데이터를 가공하는 것이 주된 목적입니다.

이미지 필터링은 컴퓨터 비전에서 가장 기본적인 연산 중 하나로, 커널(Kernel) 또는 필터(Filter)라 불리는 작은 행렬을 이미지 전체에 걸쳐 슬라이딩시키며 적용하는 컨볼루션(Convolution) 연산을 통해 수행됩니다.55 커널의 값에 따라 이미지에 다양한 효과를 줄 수 있습니다.

주로 이진(binary) 이미지에서 객체의 형태를 변형하거나 노이즈를 제거하기 위해 사용되는 기법들입니다.62

대비(Contrast)가 낮은 이미지의 품질을 향상시키는 강력한 기법입니다.27

이미지에서 의미 있는 정보를 추출하는 핵심 단계는 ‘특징(Feature)’을 찾아내는 것입니다. 특징은 이미지의 크기, 회전, 조명 변화에도 불구하고 안정적으로 검출될 수 있는 고유한 지점이나 영역을 의미합니다.

엣지는 이미지에서 픽셀의 밝기가 급격하게 변하는 지점으로, 보통 객체와 배경, 또는 객체와 객체 사이의 경계를 나타냅니다.61 엣지 정보는 이미지 분할, 객체 인식 등의 기초 자료로 활용됩니다.

서로 다른 이미지(예: 다른 각도에서 찍은 같은 건물 사진)에서 동일한 지점을 안정적으로 찾아내기 위한 기법입니다. 이렇게 찾은 점을 특징점(Feature Point) 또는 키포인트(Keypoint)라고 합니다.

이러한 알고리즘들의 선택은 ‘공짜 점심은 없다’는 원칙을 잘 보여줍니다. SIFT는 가장 강력한 성능과 안정성을 제공하지만 계산 비용이 매우 높습니다. 반면 ORB는 매우 빠르지만 성능의 안정성은 상대적으로 낮습니다. 따라서 응용 프로그램의 요구사항(실시간성, 정확도, 자원 제약 등)에 따라 적절한 알고리즘을 선택하는 엔지니어링적 판단이 필요합니다.

이미지 분할(Image Segmentation)은 이미지를 의미 있는 여러 영역으로 나누는 과정입니다. 각 픽셀에 특정 레이블을 할당하여, 예를 들어 ‘사람’, ‘자동차’, ‘도로’ 등으로 구분합니다.

객체 추적(Object Tracking)은 비디오의 연속된 프레임에서 특정 객체의 위치를 지속적으로 따라가는 기술입니다. 객체 탐지(Object Detection)가 매 프레임마다 처음부터 객체를 찾는 반면, 추적은 이전 프레임의 정보를 활용하여 현재 프레임에서 객체의 위치를 ‘예측’하기 때문에 훨씬 빠르고 효율적입니다.87

컴퓨터 비전의 궁극적인 목표 중 하나는 2D 이미지로부터 3D 세계를 재구성하는 것입니다. 깊이 추정(Depth Estimation)은 이미지의 각 픽셀이 카메라로부터 얼마나 멀리 떨어져 있는지를 계산하는 기술입니다.90

이처럼 전통적인 컴퓨터 비전 기법들은 이미지의 기울기, 즉 밝기 값의 변화율이라는 근본적인 정보를 다양한 방식으로 활용하여 엣지, 특징점, 영역을 정의하고 이를 통해 더 높은 수준의 작업을 수행합니다. 이러한 접근 방식은 딥러닝 모델 내부에서 일어나는 일들을 이해하는 데 중요한 기초 지식을 제공하며, 딥러닝이 왜 그토록 강력한지를 역설적으로 보여주는 기준점이 됩니다.

2010년대 초, 딥러닝의 등장은 컴퓨터 비전 분야에 지각변동을 일으켰습니다. 수작업으로 특징을 설계하던 시대는 저물고, 데이터로부터 특징 계층을 자동으로 학습하는 ‘엔드-투-엔드(end-to-end)’ 학습 패러다임이 도래했습니다. 이 혁명의 중심에는 합성곱 신경망(Convolutional Neural Network, CNN)이 있었습니다. 이 파트에서는 CNN의 기본 구조부터 시작하여, 이미지 분류, 객체 탐지, 이미지 분할 분야에서 획기적인 발전을 이끈 대표적인 딥러닝 아키텍처들을 심층적으로 분석합니다.

전통적인 완전 연결 신경망(Fully-Connected Neural Network)은 입력 데이터를 1차원 벡터로 처리해야 합니다. 이는 2차원(흑백) 또는 3차원(컬러) 구조를 가진 이미지 데이터를 입력으로 사용할 때, 픽셀들을 일렬로 펼치는 과정에서 중요한 공간적 정보(spatial information)를 손실시키는 근본적인 한계를 가집니다.20 CNN은 이러한 문제를 해결하기 위해 이미지의 공간 구조를 유지한 채로 학습할 수 있도록 설계된 특별한 신경망입니다.20 그 영감은 동물의 시각 피질에서 뉴런들이 시야의 특정 영역(수용장, Receptive Field)에만 반응하는 구조에서 비롯되었습니다.96

합성곱 계층은 CNN의 핵심 구성 요소로, 이미지에서 특징을 추출하는 역할을 담당합니다.98

풀링 계층은 특징 맵의 공간적 크기(너비와 높이)를 점진적으로 줄여나가는 다운샘플링(Downsampling) 역할을 합니다.98

이미지 분류는 컴퓨터 비전의 가장 기본적인 작업이며, 딥러닝 모델의 성능을 겨루는 주요 무대였습니다. 이 과정에서 등장한 대표적인 아키텍처들은 이후 더 복잡한 작업들의 기반이 되었습니다.

모델 발표 연도 핵심 혁신 깊이 영향
AlexNet 2012 딥 CNN의 가능성 입증- ReLU 활성화 함수 사용- Dropout 및 데이터 증강- 다중 GPU 병렬 학습 8 Layers 딥러닝 혁명의 시작. 이후 모든 비전 모델에 영감을 줌.
VGGNet 2014 깊이의 중요성 강조- 3x3의 작은 필터만 사용- 균일하고 단순한 구조 16-19 Layers 깊은 네트워크의 효용성을 증명하고, 많은 모델의 표준 ‘백본’으로 사용됨.
ResNet 2015 극도로 깊은 네트워크 학습 가능- 잔차 학습(Residual Learning) 도입- 스킵 연결(Skip Connection) 구조 34-152+ Layers ‘네트워크는 깊을수록 좋다’는 명제를 현실로 만듦. 현재 대부분의 SOTA 모델에서 사용되는 아키텍처.

AlexNet은 2012년 ILSVRC에서 기존의 컴퓨터 비전 접근법들을 압도적인 차이로 이기며 딥러닝의 실용성을 세상에 증명한 모델입니다.14

VGGNet은 네트워크의 ‘깊이’가 성능 향상의 핵심 요소임을 명확히 보여준 모델입니다.101 그 구조의 단순함과 균일성 덕분에 이해하고 변형하기 쉬워 많은 후속 연구에서 ‘백본(backbone)’ 아키텍처로 널리 채택되었습니다.97

VGGNet이 깊이의 중요성을 보여줬지만, 무작정 층을 깊게 쌓자 ‘성능 저하(Degradation)’ 문제가 발생했습니다. 특정 깊이를 넘어서자 더 깊은 네트워크가 얕은 네트워크보다 훈련 에러가 더 높아지는 현상이 나타난 것입니다. 이는 과적합이 아니라, 깊은 네트워크의 최적화가 어렵기 때문에 발생하는 문제였습니다.121 ResNet(Residual Network)은 이 문제를 해결하며 152층이라는 전례 없는 깊이의 네트워크를 성공적으로 훈련시켰습니다.122

객체 탐지는 이미지 속 객체의 종류를 분류하는 것을 넘어, 그 위치까지 경계 상자로 정확히 찾아내야 하는 더 복잡한 작업입니다. 이 분야의 발전은 ‘얼마나 정확하게’와 ‘얼마나 빠르게’라는 두 가지 목표를 동시에 추구하는 방향으로 이루어졌습니다.

패러다임 대표 모델 핵심 방법론 속도 정확도 주요 장점
2단계 탐지기 R-CNN, Fast R-CNN, Faster R-CNN 1. 영역 제안 (Region Proposal)2. 제안된 영역 분류 (Classification) 상대적으로 느림 높음 작은 객체 탐지에 강하고, 위치 정확도가 높음.
1단계 탐지기 YOLO, SSD 전체 이미지를 한 번에 처리하여 위치와 클래스를 동시에 회귀(Regression) 문제로 해결 매우 빠름 (실시간) 상대적으로 낮음 (초기 모델) 실시간 처리가 가능할 정도로 압도적인 속도.

R-CNN 계열은 “먼저 객체가 있을 만한 후보 영역을 찾고, 그 영역에 대해 분류를 수행하자”는 2단계(Two-stage) 접근법을 취합니다.

YOLO는 2단계 접근법을 완전히 버리고, 객체 탐지를 “이미지 픽셀로부터 경계 상자 좌표와 클래스 확률을 직접 예측하는 단일 회귀(Regression) 문제”로 재정의했습니다.135 이 1단계(One-stage) 접근법은 압도적인 속도를 자랑하며 실시간 객체 탐지의 시대를 열었습니다.137

이미지 분할은 모든 픽셀에 레이블을 할당하는 가장 정교한 작업입니다. 이 분야의 발전은 “어떻게 고수준의 의미 정보(semantic information)와 저수준의 정밀한 위치 정보(spatial information)를 효과적으로 결합할 것인가?”라는 질문에 대한 답을 찾아가는 과정이었습니다.

U-Net은 특히 생물의학 이미지 분할 분야에서 적은 양의 데이터로도 매우 정밀한 결과를 보여주며 혁명을 일으켰습니다.142 그 이름은 아키텍처의 U자 형태에서 유래했습니다.

DeepLab 계열 모델들은 의미론적 분할(Semantic Segmentation) 분야에서 SOTA(State-of-the-art) 성능을 이끌어 온 구글의 대표적인 아키텍처입니다.149 이 모델들은 다중 스케일 객체를 효과적으로 처리하고 높은 해상도를 유지하기 위한 새로운 기법들을 제시했습니다.

이러한 딥러닝 아키텍처들의 발전 과정을 살펴보면, 컴퓨터 비전의 진화가 몇 가지 핵심적인 아이디어의 연속임을 알 수 있습니다. 첫째, ‘백본과 헤드’ 패러다임입니다. ResNet과 같은 강력한 분류 모델이 범용적인 특징 추출기(백본) 역할을 하고, 그 위에 특정 작업을 위한 모듈(헤드, 예: RPN, ASPP)을 얹는 방식은 전이 학습의 효율성을 극대화했습니다. 둘째, 공간 정보와의 싸움입니다. U-Net의 스킵 연결과 DeepLab의 아트러스 컨볼루션은 모두 다운샘플링으로 인한 공간 정보 손실 문제를 해결하기 위한 독창적인 해법입니다. 셋째, 통합과 효율성입니다. 객체 탐지의 역사는 여러 개의 느린 파이프라인을 하나의 빠르고 통합된 네트워크로 만들어가는 과정 그 자체였습니다. 이러한 핵심 원리들을 이해하는 것은 새로운 아키텍처를 학습하고 자신만의 모델을 설계하는 데 중요한 기반이 될 것입니다.

CNN의 성공을 넘어, 컴퓨터 비전은 이제 새로운 아키텍처와 패러다임을 받아들이고 있습니다. 자연어 처리 분야를 평정한 트랜스포머가 비전 분야에 적용되기 시작했고, 단순히 이미지를 이해하는 것을 넘어 새로운 이미지를 창조하는 생성형 AI 분야가 폭발적으로 성장하고 있습니다. 이 파트에서는 컴퓨터 비전의 현재와 미래를 이끄는 두 가지 핵심 동력, 비전 트랜스포머와 생성 모델(GAN, 디퓨전)을 탐구합니다.

CNN은 이미지의 지역성(locality, 인접 픽셀 간의 관계가 중요함)과 이동 등변성(translation equivariance, 객체의 위치가 바뀌어도 동일하게 인식함)이라는 강력한 ‘귀납적 편향(inductive bias)’을 내장하고 있어 이미지 처리에 매우 효율적입니다.155 반면, 자연어 처리(NLP)에서 혁명을 일으킨 트랜스포머(Transformer)는 이러한 편향 없이, 셀프 어텐션(Self-Attention) 메커니즘을 통해 데이터의 모든 부분 간의 전역적인 관계(global relationship)를 학습하는 데 탁월합니다. 비전 트랜스포머(Vision Transformer, ViT)는 “이미지 고유의 편향을 최소화하고 순수한 트랜스포머 구조를 비전에 적용할 수 있을까?”라는 질문에서 출발한 모델입니다.155

생성적 적대 신경망(Generative Adversarial Networks, GANs)은 2014년 이안 굿펠로우(Ian Goodfellow)에 의해 제안된 혁신적인 생성 모델 프레임워크입니다. GAN은 단순히 데이터를 분류하거나 예측하는 것을 넘어, 훈련 데이터와 유사한 새로운 데이터를 ‘창조’하는 것을 목표로 합니다.

GAN의 핵심은 생성자(Generator, G)판별자(Discriminator, D)라는 두 개의 신경망이 서로 경쟁하며 학습하는 ‘적대적 과정(adversarial process)’에 있습니다.159 이 관계는 종종 위조지폐범과 경찰에 비유됩니다.

이 두 과정을 반복하면, 생성자는 점점 더 정교한 이미지를 만들고, 판별자는 점점 더 예리하게 가짜를 구별하게 됩니다. 이상적으로 이 게임은 내시 균형(Nash Equilibrium)에 도달하는데, 이때 생성된 이미지는 실제와 구별할 수 없게 되고, 판별자는 어떤 이미지가 들어와도 진짜일 확률을 0.5로 판단하게 됩니다.159

최근 몇 년간, 디퓨전 모델(Diffusion Models)은 GAN을 능가하는 고품질 이미지 생성 능력으로 생성형 AI 분야의 새로운 강자로 떠올랐습니다.172 이 모델은 비평형 열역학에서 영감을 받은 독특한 방식으로 작동합니다.173

디퓨전 모델은 두 가지 핵심 프로세스로 구성됩니다.173

특징 생성적 적대 신경망 (GANs) 디퓨전 모델 (Diffusion Models) 승자 / 맥락
핵심 원리 생성자와 판별자의 적대적 게임 점진적 노이즈 제거 (Denoising) -
학습 안정성 불안정하며, 수렴이 어려움 166 매우 안정적임 166 디퓨전 모델
샘플 품질 및 다양성 모드 붕괴(Mode Collapse) 현상으로 다양성이 부족할 수 있음 166 일반적으로 더 높은 품질과 뛰어난 다양성을 보임 166 디퓨전 모델
샘플링 속도 (추론) 매우 빠름 (단일 순전파) 매우 느림 (수백~수천 번의 반복적인 Denoising 스텝 필요) GANs (실시간 생성이 필요할 경우)
제어 가능성 제어가 상대적으로 어려움 (cGAN 등으로 일부 가능) 텍스트 프롬프트 등을 통한 정교한 제어가 용이함 디퓨전 모델

디퓨전 모델의 잠재력은 텍스트 프롬프트를 이미지로 변환하는 텍스트-투-이미지(Text-to-Image) 모델에서 폭발했습니다. 이 모델들은 강력한 언어-이미지 모델(예: CLIP)과 디퓨전 모델을 결합합니다.177

이러한 고급 아키텍처의 등장은 컴퓨터 비전의 패러다임이 다시 한번 변화하고 있음을 보여줍니다. ViT는 CNN의 ‘귀납적 편향’이 절대적인 것이 아니라, 데이터의 양에 따라 학습될 수 있는 하나의 ‘선택’임을 보여주었습니다. 생성 모델, 특히 텍스트-투-이미지 디퓨전 모델은 단순히 이미지를 인식하는 것을 넘어, 언어라는 추상적인 개념과 시각 세계를 연결하는 ‘세계 모델(World Model)’을 구축하는 방향으로 나아가고 있습니다. 이는 컴퓨터 비전이 단순한 패턴 인식을 넘어, 진정한 의미의 ‘이해’와 ‘창조’로 나아가는 중요한 이정표입니다.

이 파트에서는 현재 컴퓨터 비전 연구의 가장 활발한 분야들을 탐구합니다. 이 주제들은 기존의 지도 학습과 2차원 이미지 이해의 한계를 넘어서, 데이터 효율성, 3차원 공간 인식, 그리고 프라이버시 문제와 같은 현실 세계의 복잡한 요구사항에 대응하기 위한 노력의 결과물입니다. 이 분야들을 이해하는 것은 미래의 컴퓨터 비전 기술이 나아갈 방향을 예측하는 데 중요합니다.

딥러닝 모델, 특히 대규모 모델의 성능은 방대한 양의 레이블링된 데이터에 크게 의존합니다. 그러나 고품질의 레이블을 만드는 작업은 시간과 비용이 많이 드는 병목 현상을 유발합니다.183 자기 지도 학습(Self-Supervised Learning, SSL)은 이러한 한계를 극복하기 위해, 레이블이 없는 데이터 자체의 구조를 활용하여 모델이 스스로 감독 신호(supervisory signal)를 생성하고 학습하는 패러다임입니다.185

뉴럴 래디언스 필드(Neural Radiance Fields, NeRF)는 여러 각도에서 촬영된 2D 이미지들로부터 해당 장면의 사실적인 3D 뷰를 새롭게 생성해내는 획기적인 기술입니다.188 이는 컴퓨터 비전과 컴퓨터 그래픽스의 경계를 허무는 기술로 평가받습니다.

컴퓨터 비전 기술이 의료, 금융, 개인용 기기 등 민감한 데이터를 다루는 영역으로 확장되면서, 데이터 프라이버시 보호는 기술적 성능만큼이나 중요한 과제가 되었습니다. 중앙 서버로 모든 데이터를 전송하여 학습하는 전통적인 방식은 심각한 프라이버시 침해 위험을 내포하고 있습니다.192

이러한 최전선 기술들은 컴퓨터 비전이 직면한 근본적인 도전 과제들을 해결하려는 노력의 산물입니다. SSL은 데이터 부족 문제를, NeRF는 2D에서 3D로의 도약을, 그리고 프라이버시 보존 기술들은 데이터가 자원이자 동시에 잠재적 책임(liability)이 된 시대의 요구를 반영합니다. 이러한 발전은 기술이 단순히 정확도를 높이는 것을 넘어, 더 효율적이고, 더 현실적이며, 더 책임감 있는 방향으로 진화하고 있음을 보여줍니다.

컴퓨터 비전 기술을 마스터하는 것은 단순히 알고리즘과 코드를 배우는 것을 넘어, 이 기술이 작동하는 더 넓은 학문적, 사회적, 윤리적 맥락을 이해하는 것을 포함합니다. 이 마지막 파트에서는 학습자가 전문가로서 성장하기 위해 필요한 지식, 즉 최신 연구 동향을 파악하는 방법, 기술에 내재된 윤리적 책임을 인식하는 방법, 그리고 미래의 기술 발전 방향을 예측하는 통찰력을 제공합니다.

컴퓨터 비전 분야는 매우 빠르게 발전하고 있으며, 최신 기술과 아이디어는 주로 세계적인 학술대회(Conference)를 통해 발표됩니다. 이 학회들의 동향을 따라가는 것은 현재 연구의 최전선이 어디인지를 파악하는 가장 좋은 방법입니다.

학회명 주기 위상 및 특징
CVPR 매년 세계 최고 수준의 컴퓨터 비전 학회. 가장 많은 논문이 발표되며, 산업계와 학계의 참여가 가장 활발함.
ICCV 2년 CVPR과 동급의 최상위 학회. 이론과 실제 응용을 아우르는 깊이 있는 연구들이 발표됨.
ECCV 2년 유럽을 대표하는 최상위 학회. CVPR, ICCV와 함께 3대 학회로 불리며 높은 수준의 연구를 다룸.

컴퓨터 비전 기술은 사회에 막대한 혜택을 주지만, 동시에 심각한 윤리적 문제를 야기할 수 있습니다. 책임감 있는 개발자는 이러한 문제를 깊이 이해하고 해결하기 위해 노력해야 합니다. 윤리적 AI 개발의 핵심 원칙은 공정성(Fairness), 투명성(Transparency), 책무성(Accountability), 프라이버시(Privacy)입니다.214

기술의 발전 속도를 법과 제도가 따라가지 못하는 상황에서, 개발자, 기업, 연구자 커뮤니티의 자발적이고 선제적인 윤리 프레임워크 구축이 필수적입니다.236

컴퓨터 비전은 앞으로도 계속해서 빠르게 진화할 것입니다. 주목해야 할 몇 가지 주요 트렌드는 다음과 같습니다.

결론적으로, 21세기의 컴퓨터 비전 전문가가 된다는 것은 단순히 기술적 역량을 갖추는 것을 의미하지 않습니다. 그것은 데이터 거버넌스, 윤리적 감사, 규제 준수에 대한 깊은 이해를 바탕으로, 강력할 뿐만 아니라 공정하고, 투명하며, 신뢰할 수 있는 시스템을 구축할 수 있는 능력을 갖추는 것을 의미합니다. 기술의 힘이 커질수록 그것을 사용하는 사람의 책임 또한 무거워진다는 사실을 항상 명심해야 할 것입니다.

  1. Computer Vision: 그 개념과 중요성 - SAS, accessed July 4, 2025, https://www.sas.com/ko_kr/insights/analytics/computer-vision.html
  2. 컴퓨터 비전의 응용 분야 설명 - Ultralytics, accessed July 4, 2025, https://www.ultralytics.com/ko/blog/exploring-how-the-applications-of-computer-vision-work
  3. 컴퓨터 비전(Computer Vision)이란? 정의, 활용 사례, 기술, accessed July 4, 2025, https://kr.appen.com/blog/computer-vision/
  4. 2025년의 컴퓨터 비전: 트렌드 및 애플리케이션 울트라 애널리틱스 - Ultralytics, accessed July 4, 2025, https://www.ultralytics.com/ko/blog/everything-you-need-to-know-about-computer-vision-in-2025
  5. 컴퓨터 비전의 발전 - 기술 혁신과 윤리적 고민 - 티티, accessed July 4, 2025, https://titibbang795.tistory.com/entry/%EC%BB%B4%ED%93%A8%ED%84%B0-%EB%B9%84%EC%A0%84%EC%9D%98-%EB%B0%9C%EC%A0%84-%EA%B8%B0%EC%88%A0-%ED%98%81%EC%8B%A0%EA%B3%BC-%EC%9C%A4%EB%A6%AC%EC%A0%81-%EA%B3%A0%EB%AF%BC
  6. 10 Computer Vision Applications for 2025 DigitalOcean, accessed July 4, 2025, https://www.digitalocean.com/resources/articles/computer-vision-applications
  7. en.wikipedia.org, accessed July 4, 2025, https://en.wikipedia.org/wiki/Computer_vision
  8. History Of Computer Vision - Let’s Data Science, accessed July 4, 2025, https://letsdatascience.com/learn/history/history-of-computer-vision/
  9. Computer Vision Through the Ages TELUS Digital, accessed July 4, 2025, https://www.telusdigital.com/insights/data-and-ai/article/computer-vision-through-the-ages
  10. Computer Vision: History and How it Works - Sama, accessed July 4, 2025, https://www.sama.com/blog/computer-vision-history-how-it-works
  11. What is Computer Vision? (History, Applications, Challenges) by Ambika Medium, accessed July 4, 2025, https://medium.com/@ambika199820/what-is-computer-vision-history-applications-challenges-13f5759b48a5
  12. ImageNet: A Pioneering Vision for Computers - History of Data Science, accessed July 4, 2025, https://www.historyofdatascience.com/imagenet-a-pioneering-vision-for-computers/
  13. AlexNet: ImageNet Classification with Deep Convolutional Neural Networks, accessed July 4, 2025, https://deepdaiv.oopy.io/paper/alexnet
  14. AlexNet - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/AlexNet
  15. What Is Image Segmentation? IBM, accessed July 4, 2025, https://www.ibm.com/think/topics/image-segmentation
  16. Applications of Computer Vision - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/applications-of-computer-vision/
  17. 21 Examples of Computer Vision Applications Across Industries - Coursera, accessed July 4, 2025, https://www.coursera.org/articles/computer-vision-applications
  18. 50 Computer Vision Examples and Real-World Applications - Roboflow Blog, accessed July 4, 2025, https://blog.roboflow.com/computer-vision-examples/
  19. [OpenCV Practice 07] 색공간 추적하기 - 데이터 사이언스 사용 설명서 - 티스토리, accessed July 4, 2025, https://dsbook.tistory.com/166
  20. [딥러닝 모델] CNN (Convolutional Neural Network) 설명 - 고양이 미로 - 티스토리, accessed July 4, 2025, https://rubber-tree.tistory.com/116
  21. What is a Pixel in Digital Images? - Intelgic, accessed July 4, 2025, https://intelgic.com/what-is-pixel-in-digital-images
  22. 이미지 데이터 이론ㅣ색공간, 이미지 형식, OpenCV - velog, accessed July 4, 2025, https://velog.io/@sobit/%EC%9D%B4%EB%AF%B8%EC%A7%80-%EB%8D%B0%EC%9D%B4%ED%84%B0-%EC%9D%B4%EB%A1%A0%E3%85%A3%EC%83%89%EA%B3%B5%EA%B0%84-%EC%9D%B4%EB%AF%B8%EC%A7%80-%ED%98%95%EC%8B%9D-OpenCV
  23. 이미지처리 기초 - velog, accessed July 4, 2025, https://velog.io/@samuelitis/%EC%9D%B4%EB%AF%B8%EC%A7%80%EC%B2%98%EB%A6%AC-%EA%B8%B0%EC%B4%88-1
  24. From Pixels to Perception: A Technical Guide to Color Analysis in Digital Images - Medium, accessed July 4, 2025, https://medium.com/@moehamade/from-pixels-to-perception-a-technical-guide-to-color-analysis-in-digital-images-d8c47ee0b89e
  25. Introduction to Color Spaces - Tutorials Point, accessed July 4, 2025, https://www.tutorialspoint.com/dip/introduction_to_color_spaces.htm
  26. YCbCr Color Space: Understanding Its Role in Digital Photography - PRO EDU, accessed July 4, 2025, https://proedu.com/blogs/photography-fundamentals/ycbcr-color-space-understanding-its-role-in-digital-photography
  27. 이미지 처리의 히스토그램 이해 - 전자통신공학 알아보기 - 티스토리, accessed July 4, 2025, https://everytipoflife.tistory.com/26
  28. 이미지 히스토그램 - velog, accessed July 4, 2025, https://velog.io/@syl_vana/%EC%9D%B4%EB%AF%B8%EC%A7%80-%ED%9E%88%EC%8A%A4%ED%86%A0%EA%B7%B8%EB%9E%A8
  29. 2장 영상처리 - 히스토그램, accessed July 4, 2025, https://heo-seongil.tistory.com/27
  30. [OpenCV] 6. 히스토그램, 명암비, 스트레칭, 평활화, 역투영 - Computistics - 티스토리, accessed July 4, 2025, https://computistics.tistory.com/38
  31. Histogram equalization - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Histogram_equalization
  32. What is OpenCV? A Guide for Beginners. - Roboflow Blog, accessed July 4, 2025, https://blog.roboflow.com/what-is-opencv/
  33. About - OpenCV, accessed July 4, 2025, https://opencv.org/about/
  34. Introduction - OpenCV Documentation, accessed July 4, 2025, https://docs.opencv.org/4.x/d1/dfb/intro.html
  35. PyTorch vs TensorFlow in 2022 - velog, accessed July 4, 2025, https://velog.io/@freejack/PyTorch-vs-TensorFlow-in-2022
  36. PyTorch vs. TensorFlow: Key Differences to Know for Deep Learning - Built In, accessed July 4, 2025, https://builtin.com/data-science/pytorch-vs-tensorflow
  37. PyTorch vs TensorFlow: Comparative Guide of AI Frameworks 2025 - OpenCV, accessed July 4, 2025, https://opencv.org/blog/pytorch-vs-tensorflow/
  38. [pytorch vs. Tensorflow] 딥러닝 프레임워크? 어떤 차이가 있을까? - Korean Bioinformatics, accessed July 4, 2025, https://mopipe.tistory.com/218
  39. Pytorch vs Tensorflow: A Head-to-Head Comparison - viso.ai, accessed July 4, 2025, https://viso.ai/deep-learning/pytorch-vs-tensorflow/
  40. Pytorch VS Tensorflow by 2022 - Hosik’s 성장의 기록 - 티스토리, accessed July 4, 2025, https://hyoseok-personality.tistory.com/entry/Week-2-1-Pytorch-VS-Tensorflow-by-202
  41. 2022년 PyTorch 와 TensorFlow 비교 - GeekNews, accessed July 4, 2025, https://news.hada.io/topic?id=5578
  42. Tensorflow, Pytorch 비교 - velog, accessed July 4, 2025, https://velog.io/@ttogle918/Tensorflow-Pytorch-%EB%B9%84%EA%B5%90
  43. How to Choose Between TensorFlow vs PyTorch in 2025 - YouTube, accessed July 4, 2025, https://www.youtube.com/watch?v=yOGi4vmtNaY
  44. ImageNet, accessed July 4, 2025, https://www.image-net.org/
  45. Understanding ImageNet: A Key Resource for Computer Vision and AI Research - Zilliz, accessed July 4, 2025, https://zilliz.com/glossary/imagenet
  46. The Impact of ImageNet. A child learns how to speak their first… by TheArtificialPenguin Medium, accessed July 4, 2025, https://medium.com/@theartificialpenguin/where-should-one-learn-from-55a07d29fd1a
  47. 0031 Popular Image Dataset - Deepest Documentation - Read the Docs, accessed July 4, 2025, https://deepestdocs.readthedocs.io/en/latest/003_image_processing/0031/
  48. An Introduction to ImageNet - Roboflow Blog, accessed July 4, 2025, https://blog.roboflow.com/introduction-to-imagenet/
  49. [Computer Vision] COCO 데이터셋 - SITUDY - 티스토리, accessed July 4, 2025, https://situdy.tistory.com/m/87
  50. COCO Dataset: All You Need to Know to Get Started - V7 Labs, accessed July 4, 2025, https://www.v7labs.com/blog/coco-dataset-guide
  51. CS : COCO Dataset - value = able - 티스토리, accessed July 4, 2025, https://kxmjhwn.tistory.com/273
  52. What is the COCO Dataset? What You Need to Know - viso.ai, accessed July 4, 2025, https://viso.ai/computer-vision/coco-dataset/
  53. COCO Dataset: A Step-by-Step Guide to Loading and Visualizing with Custom Code, accessed July 4, 2025, https://machinelearningspace.com/coco-dataset-a-step-by-step-guide-to-loading-and-visualizing/
  54. COCO Dataset Object Detection Dataset and Pre-Trained Model by Microsoft - Roboflow Universe, accessed July 4, 2025, https://universe.roboflow.com/microsoft/coco
  55. Image Filtering using Convolution in OpenCV, accessed July 4, 2025, https://opencv.org/blog/image-filtering-using-convolution-in-opencv/
  56. OpenCV Python - Image Filtering - Tutorialspoint, accessed July 4, 2025, https://www.tutorialspoint.com/opencv_python/opencv_python_image_filtering.htm
  57. 영상처리-필터 - velog, accessed July 4, 2025, https://velog.io/@pos1504/%EC%98%81%EC%83%81%EC%B2%98%EB%A6%AC-%ED%95%84%ED%84%B0
  58. OpenCV - 17. 필터(Filter)와 컨볼루션(Convolution) 연산, 평균 블러링, 가우시안 블러링, 미디언 블러링, 바이레터럴 필터 - 귀퉁이 서재, accessed July 4, 2025, https://bkshin.tistory.com/entry/OpenCV-17-%ED%95%84%ED%84%B0Filter%EC%99%80-%EC%BB%A8%EB%B3%BC%EB%A3%A8%EC%85%98Convolution-%EC%97%B0%EC%82%B0-%ED%8F%89%EA%B7%A0-%EB%B8%94%EB%9F%AC%EB%A7%81-%EA%B0%80%EC%9A%B0%EC%8B%9C%EC%95%88-%EB%B8%94%EB%9F%AC%EB%A7%81-%EB%AF%B8%EB%94%94%EC%96%B8-%EB%B8%94%EB%9F%AC%EB%A7%81-%EB%B0%94%EC%9D%B4%EB%A0%88%ED%84%B0%EB%9F%B4-%ED%95%84%ED%84%B0
  59. Smoothing Images - OpenCV Documentation, accessed July 4, 2025, https://docs.opencv.org/4.x/d4/d13/tutorial_py_filtering.html
  60. [OpenCV] 영상 필터링 - 별준 - 티스토리, accessed July 4, 2025, https://junstar92.tistory.com/405
  61. 영상의 edge detection (Sobel, Canny Edge) 원리와 사용법 - JINSOL KIM, accessed July 4, 2025, https://gaussian37.github.io/vision-concept-edge_detection/
  62. 이미지 필터링 - 데이터 사이언스 스쿨, accessed July 4, 2025, https://datascienceschool.net/03%20machine%20learning/03.02.02%20%EC%9D%B4%EB%AF%B8%EC%A7%80%20%ED%95%84%ED%84%B0%EB%A7%81.html
  63. www.sci.utah.edu, accessed July 4, 2025, https://www.sci.utah.edu/~acoste/uou/Image/project1/Arthur_COSTE_Project_1_report.html#:~:text=Histogram%20equalization%20is%20a%20method,function%20associated%20to%20the%20image.
  64. Histogram Equalization - OpenCV Documentation, accessed July 4, 2025, https://docs.opencv.org/4.x/d4/d1b/tutorial_histogram_equalization.html
  65. 영상처리-C++로 이미지 Sobel 경계 검출 및 영상 이진화 - 김효랑이, accessed July 4, 2025, https://kim-hoya.tistory.com/21
  66. Edge Detection in Image Processing: An Introduction - Roboflow Blog, accessed July 4, 2025, https://blog.roboflow.com/edge-detection/
  67. Canny Edge Detection - velog, accessed July 4, 2025, https://velog.io/@mykirk98/Canny-Edge-Detection
  68. 에지 검출(1) - 1차/2차 미분, Prewitt, Sobel :: 𝄢 - 티스토리, accessed July 4, 2025, https://deep-learning-basics.tistory.com/49
  69. Edge Detection – The Canny Algorithm - FutureLearn, accessed July 4, 2025, https://www.futurelearn.com/info/courses/introduction-to-image-analysis-for-plant-phenotyping/0/steps/302632
  70. OpenCV 에지 (경계선) 검출, accessed July 4, 2025, http://kocw-n.xcache.kinxcdn.com/data/document/2021/kumoh/leehaeyeoun0824/18.pdf
  71. Canny edge detector - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Canny_edge_detector
  72. SIFT (Scale-Invariant-Feature TRansform)를 활용한 이미지 특징 추출 및 매칭 알고리즘, accessed July 4, 2025, https://do-my-best.tistory.com/entry/SIFT-Scale-Invariant-Feature-TRansform%EB%A5%BC-%ED%99%9C%EC%9A%A9%ED%95%9C-%EC%9D%B4%EB%AF%B8%EC%A7%80-%ED%8A%B9%EC%A7%95-%EC%B6%94%EC%B6%9C-%EB%B0%8F-%EB%A7%A4%EC%B9%AD-%EC%95%8C%EA%B3%A0%EB%A6%AC%EC%A6%98
  73. What is SIFT(Scale Invariant Feature Transform) Algorithm? - Analytics Vidhya, accessed July 4, 2025, https://www.analyticsvidhya.com/blog/2019/10/detailed-guide-powerful-sift-technique-image-matching-python/
  74. Scale-Invariant Feature Transform Baeldung on Computer Science, accessed July 4, 2025, https://www.baeldung.com/cs/scale-invariant-feature-transform
  75. [Computer Vision / Image Precessing] SIFT (Scale Invariant Feature Transform) - 주머니 속 메모장 - 티스토리, accessed July 4, 2025, https://alex-an0207.tistory.com/164
  76. [CV] Scale-Invariant Feature Transform (SIFT) - velog, accessed July 4, 2025, https://velog.io/@u_jinju/CV-Scale-Invariant-Feature-Transform-SIFT
  77. [OpenCV] 특징 디스크립터 검출기 (SIFT, SURF, ORB) - zeroeun - 티스토리, accessed July 4, 2025, https://zeroeun.tistory.com/41
  78. [OpenCV] SIFT, SURF에 대한 간단 설명 - AI 연구하는 깨굴이 - 티스토리, accessed July 4, 2025, https://hsyaloe.tistory.com/77
  79. [OpenCV] Feature Detection & Matching 특징 검출과 매칭 이미지에서 유사한 특징 찾아내기 이미지 대응점 - CV DOODLE, accessed July 4, 2025, https://mvje.tistory.com/133
  80. [OpenCV] SURF 알고리즘, accessed July 4, 2025, https://velog.io/@checking_pks/SURF-%EC%95%8C%EA%B3%A0%EB%A6%AC%EC%A6%98
  81. Speeded up robust features - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Speeded_up_robust_features
  82. OpenCV 특징점 검출과 매칭 - velog, accessed July 4, 2025, https://velog.io/@brillianthhj/OpenCV-%ED%8A%B9%EC%A7%95%EC%A0%90-%EA%B2%80%EC%B6%9C%EA%B3%BC-%EB%A7%A4%EC%B9%AD
  83. 이미지 분할이란 무엇인가요? - IBM, accessed July 4, 2025, https://www.ibm.com/kr-ko/think/topics/image-segmentation
  84. Image Segmentation: Deep Learning vs Traditional [Guide] - V7 Labs, accessed July 4, 2025, https://www.v7labs.com/blog/image-segmentation-guide
  85. Image Segmentation Mastery: Techniques & Applications Guide - Rapid Innovation, accessed July 4, 2025, https://www.rapidinnovation.io/post/mastering-image-segmentation-a-comprehensive-guide-to-techniques-and-applications
  86. [패턴인식] 영상분할(1): 영상 분할의 원리, 전통적 방법 - 코딩스뮤, accessed July 4, 2025, https://codingsmu.tistory.com/117
  87. [이론/Imple] Object Tracking 객체 트래킹 - ZOELOG - 티스토리, accessed July 4, 2025, https://stroy-jy.tistory.com/106
  88. [Overview] Multipe Object Tracking 이란 (1) - 공돌이 공룡의 서재 - 티스토리, accessed July 4, 2025, https://mr-waguwagu.tistory.com/48
  89. YOLO_NAS_SORT 이용하여 people counting - 주뇽’s 저장소 - 티스토리, accessed July 4, 2025, https://jypark1111.tistory.com/82
  90. 깊이 추정(Depth Estimation)이란? - byeol3325, accessed July 4, 2025, https://byeol3325.github.io/_posts/studying/research/2024-07-29-depth/
  91. 3D 카메라 기술 이해: 스테레오 비전 (Stereo Vision) / 구조광 (Structured Light) / ToF (Time-of-Flight) Namuga - 나무가, accessed July 4, 2025, https://namuga.com/kor/invest/news_view.php?v_seqno=245
  92. docs.luxonis.com, accessed July 4, 2025, https://docs.luxonis.com/hardware/platform/depth/configuring-stereo-depth#:~:text=Stereo%20depth%20vision%20works%20by,what%20our%20right%20eye%20sees.
  93. Configuring Stereo Depth - Luxonis Docs, accessed July 4, 2025, https://docs.luxonis.com/hardware/platform/depth/configuring-stereo-depth
  94. 11장 3차원 비전, accessed July 4, 2025, https://heo-seongil.tistory.com/84
  95. [딥러닝] 합성곱 신경망, CNN(Convolutional Neural Network) - 이론편 - 공대생의 차고, accessed July 4, 2025, https://underflow101.tistory.com/25
  96. 합성곱 신경망 - 위키백과, 우리 모두의 백과사전, accessed July 4, 2025, https://ko.wikipedia.org/wiki/%ED%95%A9%EC%84%B1%EA%B3%B1_%EC%8B%A0%EA%B2%BD%EB%A7%9D
  97. CNN의 등장과 발전 과정 - 2 (VGGNet, ResNet, DenseNet, EfficientNet) - AI 하는 빌리의 반란, accessed July 4, 2025, https://dotiromoook.tistory.com/21
  98. What are Convolutional Neural Networks? - IBM, accessed July 4, 2025, https://www.ibm.com/think/topics/convolutional-neural-networks
  99. Introduction to Convolution Neural Network - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/machine-learning/introduction-convolution-neural-network/
  100. Convolutional Neural Networks (CNN) Tutorial - Analytics Vidhya, accessed July 4, 2025, https://www.analyticsvidhya.com/blog/2018/12/guide-convolutional-neural-network-cnn/
  101. VGGNet 아직도 정리 못했다면 빠르게 핵심만! - Day to_day, accessed July 4, 2025, https://day-to-day.tistory.com/64
  102. AlexNet and ImageNet: The Birth of Deep Learning - Pinecone, accessed July 4, 2025, https://www.pinecone.io/learn/series/image-search/imagenet/
  103. CNN Explainer - Polo Club of Data Science, accessed July 4, 2025, https://poloclub.github.io/cnn-explainer/
    1. CNN(합성곱신경망) 1강. CNN 원리, accessed July 4, 2025, http://contents2.kocw.or.kr/KOCW/data/document/2020/edu1/bdu/hongseungwook1118/041.pdf
  104. Convolutional Neural Network (CNN) - Unsupervised Feature Learning and Deep Learning Tutorial, accessed July 4, 2025, http://deeplearning.stanford.edu/tutorial/supervised/ConvolutionalNeuralNetwork/
  105. Convolutional Neural Networks (CNNs / ConvNets) - CS231n Deep Learning for Computer Vision, accessed July 4, 2025, https://cs231n.github.io/convolutional-networks/
  106. Convolutional Neural Networks (CNNs) : A Complete Guide - Medium, accessed July 4, 2025, https://medium.com/@alejandro.itoaramendia/convolutional-neural-networks-cnns-a-complete-guide-a803534a1930
  107. Convolutional Neural Network - Lesson 9: Activation Functions in CNNs - Medium, accessed July 4, 2025, https://medium.com/@nerdjock/convolutional-neural-network-lesson-9-activation-functions-in-cnns-57def9c6e759
  108. ReLU Activation Function in Deep Learning - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/deep-learning/relu-activation-function-in-deep-learning/
  109. ReLU Activation Function Explained - Built In, accessed July 4, 2025, https://builtin.com/machine-learning/relu-activation-function
  110. How does ReLU function make it possible to let the CNN learn more complex features in input data?, accessed July 4, 2025, https://datascience.stackexchange.com/questions/126342/how-does-relu-function-make-it-possible-to-let-the-cnn-learn-more-complex-featur
  111. Fully Connected Layer vs. Convolutional Layer: Explained Built In, accessed July 4, 2025, https://builtin.com/machine-learning/fully-connected-layer
  112. [딥러닝] AlexNet 모델의 개요 및 특징 - LCY - 티스토리, accessed July 4, 2025, https://lcyking.tistory.com/entry/AlexNet-%EB%AA%A8%EB%8D%B8%EC%9D%98-%EA%B0%9C%EC%9A%94-%EB%B0%8F-%ED%8A%B9%EC%A7%95
  113. CNN의 주요 모델 - AlexNet / 블로그 - 데이터메이커, accessed July 4, 2025, https://www.datamaker.io/blog/posts/34
  114. AlexNet Explained Papers With Code, accessed July 4, 2025, https://paperswithcode.com/method/alexnet
  115. [Dive into Deep Learning / CNN] AlexNet - KUBIG 2022-2 활동 블로그 - 티스토리, accessed July 4, 2025, https://kubig-2022-2.tistory.com/113
  116. [CNN] VGG16 model - Adore__ - 티스토리, accessed July 4, 2025, https://ai-woods.tistory.com/4
  117. VGGNet 논문 리뷰, accessed July 4, 2025, https://velog.io/@pre_f_86/VGGNet-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0
  118. VGGNet-16 Architecture: A Complete Guide - Kaggle, accessed July 4, 2025, https://www.kaggle.com/code/blurredmachine/vggnet-16-architecture-a-complete-guide
  119. VGG-Net Architecture Explained - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/computer-vision/vgg-net-architecture-explained/
  120. Deep Residual Learning for Image Recognition (ResNet Explained) - Analytics Vidhya, accessed July 4, 2025, https://www.analyticsvidhya.com/blog/2023/02/deep-residual-learning-for-image-recognition-resnet-explained/
  121. [논문 리뷰] 5. ResNet의 구조 & 구현, accessed July 4, 2025, https://advantageous-glass.tistory.com/14
  122. [Classic] Deep Residual Learning for Image Recognition (Paper Explained) - YouTube, accessed July 4, 2025, https://www.youtube.com/watch?v=GWt6Fu05voI
  123. ResNet(Residual Network) - velog, accessed July 4, 2025, https://velog.io/@qtly_u/ResNetResidual-Network
  124. Residual neural network - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Residual_neural_network
  125. ResNet 구조 이해 및 구현 - 준세 단칸방 - 티스토리, accessed July 4, 2025, https://wjunsea.tistory.com/99
  126. [논문정리] ResNet 개념 정리, accessed July 4, 2025, https://stevenkim1217.tistory.com/entry/ResNet-%EA%B0%9C%EB%85%90-%EC%A0%95%EB%A6%AC
    1. faster R-CNN - 공부하려고 만든 블로그 - 티스토리, accessed July 4, 2025, https://welcome-to-dewy-world.tistory.com/110
  127. Faster R-CNN Explained for Object Detection Tasks - DigitalOcean, accessed July 4, 2025, https://www.digitalocean.com/community/tutorials/faster-r-cnn-explained-object-detection
  128. [딥러닝] Object detection (2)(R-CNN / Fast R-CNN / Faster R-CNN 총정리) - 비전공자 데이터분석 노트 - 티스토리, accessed July 4, 2025, https://bigdaheta.tistory.com/60
  129. Faster RCNN in 2025: How it works and why it’s still the benchmark for Object Detection, accessed July 4, 2025, https://www.thinkautonomous.ai/blog/faster-rcnn/
  130. Faster R-CNN Explained Papers With Code, accessed July 4, 2025, https://paperswithcode.com/method/faster-r-cnn
  131. [논문리뷰/CV] Faster R-CNN 모델 (R-CNN, Fast R-CNN과 비교) - 샤샤’s 데이터 분석 블로그, accessed July 4, 2025, https://shashacode.tistory.com/95
  132. 갈아먹는 Object Detection [4] Faster R-CNN - 퍼스트펭귄 코딩스쿨, accessed July 4, 2025, https://blog.firstpenguine.school/17
  133. [논문 리뷰] YOLO: You Only Look Once: Unified, Real-Time Object Detection - 기억보단 기록을 - 티스토리, accessed July 4, 2025, https://haseong8012.tistory.com/46
  134. YOLO Object Detection Explained: A Beginner’s Guide - DataCamp, accessed July 4, 2025, https://www.datacamp.com/blog/yolo-object-detection-explained
  135. [YOLO] Object Detection - YOLO 기본 개념 - velog, accessed July 4, 2025, https://velog.io/@jiiina/YOLO-Object-Detection-YOLO-%EA%B8%B0%EB%B3%B8-%EA%B0%9C%EB%85%90
  136. [AI/딥러닝] 객체 검출(Object Detection) 모델의 종류 R-CNN, YOLO, SSD - 고양이 미로, accessed July 4, 2025, https://rubber-tree.tistory.com/119
  137. YOLO V3 Explained - Medium, accessed July 4, 2025, https://medium.com/data-science/yolo-v3-explained-ff5b850390f
  138. YOLOv3 Explained Papers With Code, accessed July 4, 2025, https://paperswithcode.com/method/yolov3
  139. YOLOv3: Real-Time Object Detection Algorithm (Guide) - viso.ai, accessed July 4, 2025, https://viso.ai/deep-learning/yolov3-overview/
  140. U-Net - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/U-Net
  141. U-Net Architecture Explained - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/machine-learning/u-net-architecture-explained/
  142. The U-Net : A Complete Guide Medium, accessed July 4, 2025, https://medium.com/@alejandro.itoaramendia/decoding-the-u-net-a-complete-guide-810b1c6d56d8
  143. UNet Architecture Explained In One Shot [TUTORIAL] - Kaggle, accessed July 4, 2025, https://www.kaggle.com/code/akshitsharma1/unet-architecture-explained-in-one-shot-tutorial
  144. What are Skip Connections in Deep Learning? - Analytics Vidhya, accessed July 4, 2025, https://www.analyticsvidhya.com/blog/2021/08/all-you-need-to-know-about-skip-connections/
  145. Do we really need that skip-connection? Understanding its interplay with task complexity MICCAI 2023 - Accepted Papers, Reviews, Author Feedback, accessed July 4, 2025, https://conferences.miccai.org/2023/papers/216-Paper1258.html
  146. UNet++: Redesigning Skip Connections to Exploit Multiscale Features in Image Segmentation - PMC, accessed July 4, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7357299/
  147. DeepLabv3 & DeepLabv3+ The Ultimate PyTorch Guide - LearnOpenCV, accessed July 4, 2025, https://learnopencv.com/deeplabv3-ultimate-guide/
  148. A Comprehensive Guide on Atrous Convolution in CNNs - Analytics Vidhya, accessed July 4, 2025, https://www.analyticsvidhya.com/blog/2023/12/a-comprehensive-guide-on-atrous-convolution-in-cnns/
  149. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs - arXiv, accessed July 4, 2025, http://arxiv.org/pdf/1606.00915
  150. Summary of DeepLabv3 paper - Swetha’s Blog, accessed July 4, 2025, https://swethatanamala.github.io/2018/08/15/summary-of-DeepLabv3-paper/
  151. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs - Liang-Chieh Chen, accessed July 4, 2025, http://liangchiehchen.com/projects/DeepLab.html
  152. [1802.02611] Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation - arXiv, accessed July 4, 2025, https://arxiv.org/abs/1802.02611
  153. ViT 살펴보기 Vision Transformer - Standing-O, accessed July 4, 2025, https://standing-o.github.io/posts/vision-transformer/
  154. [논문 리뷰] ViT(Vision Transformer), An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale - Yoonstory - 티스토리, accessed July 4, 2025, https://kk-yy.tistory.com/132
  155. Vision Transformer(ViT) 논문 리뷰 - velog, accessed July 4, 2025, https://velog.io/@pre_f_86/Vision-TransformerViT-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0
  156. ViT: Vision Transformer. Transformer 구조는 자연어 처리 분야에서 표준으로 자리… - Taewan Cho, accessed July 4, 2025, https://taewan2002.medium.com/vit-vision-transformer-1d0555068f48
  157. 적대적 생성 신경망 GAN(Generative Adversarial Networks) - yolo_study - 티스토리, accessed July 4, 2025, https://yololifestudy.tistory.com/entry/%EC%A0%81%EB%8C%80%EC%A0%81-%EC%83%9D%EC%84%B1-%EC%8B%A0%EA%B2%BD%EB%A7%9D-GANGenerative-Adversarial-Networks
  158. 생성적 적대 신경망 - 나무위키, accessed July 4, 2025, https://namu.wiki/w/%EC%83%9D%EC%84%B1%EC%A0%81%20%EC%A0%81%EB%8C%80%20%EC%8B%A0%EA%B2%BD%EB%A7%9D
  159. Generative Adversarial Network (GAN) - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/generative-adversarial-network-gan/
  160. Generative Adversarial Networks: Build Your First Models - Real Python, accessed July 4, 2025, https://realpython.com/generative-adversarial-networks/
  161. GAN의 기초(GAN,DCGAN,WGAN,CGAN) - velog, accessed July 4, 2025, https://velog.io/@tobigs-gm1/basicofgan
  162. [ Computer Vision ] Collapse란? - KalelPark’s LAB - 티스토리, accessed July 4, 2025, https://kalelpark.tistory.com/179
  163. Chapter 4-7. GAN(Generative Adversarial Networks) - NOW엑셈, accessed July 4, 2025, https://blog.ex-em.com/1896
  164. GAN(Generative Adversarial Network)과 Stable diffusion의 이해와 정리 - MW Meta Writers, accessed July 4, 2025, https://metawriters.tistory.com/77
  165. GAN 응용기술과 실제 활용사례 - 닐리리의 디지털 항해일지, accessed July 4, 2025, https://nilili.co.kr/ai%EC%8B%A4%ED%97%98%EC%8B%A4/gan-%EC%9D%91%EC%9A%A9%EA%B8%B0%EC%88%A0%EA%B3%BC-%EC%8B%A4%EC%A0%9C-%ED%99%9C%EC%9A%A9%EC%82%AC%EB%A1%80/
  166. Applications of GANs in Image Generation and Style Transfer - ResearchGate, accessed July 4, 2025, https://www.researchgate.net/publication/390856906_Applications_of_GANs_in_Image_Generation_and_Style_Transfer
  167. Style transfer with CycleGAN - DataScientest, accessed July 4, 2025, https://datascientest.com/en/style-transfer-with-cyclegan
  168. GANs, 어떻게 활용되고 있을까? - 파이미디어랩, accessed July 4, 2025, https://www.paimedialab.com/post/gans-%EC%96%B4%EB%96%BB%EA%B2%8C-%ED%99%9C%EC%9A%A9%EB%90%98%EA%B3%A0-%EC%9E%88%EC%9D%84%EA%B9%8C
  169. GANs 4 - 실질적인 활용 사례, accessed July 4, 2025, https://velog.io/@smile_b/GANs-4-%EC%8B%A4%EC%A7%88%EC%A0%81%EC%9D%B8-%ED%99%9C%EC%9A%A9-%EC%82%AC%EB%A1%80
  170. Diffusion Models Beat GANs on Image Synthesis - velog, accessed July 4, 2025, https://velog.io/@philiplee_235/Diffusion-Models-Beat-GANs-on-Image-Synthesis
  171. [스노피 AI] 디퓨전 모델(Diffusion model)에 대한 쉬운 설명 - Wafour (와포) 블로그, accessed July 4, 2025, https://wafour.tistory.com/entry/%EC%8A%A4%EB%85%B8%ED%94%BC-AI-%EB%94%94%ED%93%A8%EC%A0%84-%EB%AA%A8%EB%8D%B8Diffusion-model%EC%97%90-%EB%8C%80%ED%95%9C-%EC%89%AC%EC%9A%B4-%EC%84%A4%EB%AA%85
  172. Introduction to Diffusion Models for Machine Learning SuperAnnotate, accessed July 4, 2025, https://www.superannotate.com/blog/diffusion-models
  173. Diffusion model 설명 (Diffusion model이란? Diffusion model 증명) - 유니의 공부 - 티스토리, accessed July 4, 2025, https://process-mining.tistory.com/182
  174. [Concept] Diffusion Models ( with. DDPM ) - Hosik’s 성장의 기록 - 티스토리, accessed July 4, 2025, https://hyoseok-personality.tistory.com/entry/Concept-Diffusion-Models-with-DDPM-DDIM
  175. Text-to-Image 생성 모델 DALL-E 2 - velog, accessed July 4, 2025, https://velog.io/@yuhyeon0809/Text-to-Image-%EC%83%9D%EC%84%B1-%EB%AA%A8%EB%8D%B8-DALL-E-2
  176. 그림 그려주는 AI : Stable Diffusion AI의 원리 (Latent Diffusion Model), accessed July 4, 2025, https://tech-savvy30.tistory.com/9
  177. DALLE2 - Diffusion Model 논문 리뷰 - FFighting, accessed July 4, 2025, https://ffighting.net/deep-learning-paper-review/diffusion-model/dalle2/
  178. Stable Diffusion vs. DALL/E 2: Which Wins for AI Art? - Latenode, accessed July 4, 2025, https://latenode.com/blog/stable-diffusion-vs-dall-e-2
  179. DALL-E 2 vs Stability AI’s Stable Diffusion XL - Comparison of Image Generation Capabilities - promptmate.io, accessed July 4, 2025, https://promptmate.io/dall-e-vs-stable-diffusion/
  180. (PDF) Generated Faces in the Wild: Quantitative Comparison of Stable Diffusion, Midjourney and DALL-E 2 - ResearchGate, accessed July 4, 2025, https://www.researchgate.net/publication/364126542_Generated_Faces_in_the_Wild_Quantitative_Comparison_of_Stable_Diffusion_Midjourney_and_DALL-E_2
  181. A Survey of the Self Supervised Learning Mechanisms for Vision Transformers - arXiv, accessed July 4, 2025, https://arxiv.org/pdf/2408.17059
  182. What Is Self-Supervised Learning? - IBM, accessed July 4, 2025, https://www.ibm.com/think/topics/self-supervised-learning
  183. Self-Supervised Learning: Definition, Tutorial & Examples - V7 Labs, accessed July 4, 2025, https://www.v7labs.com/blog/self-supervised-learning-guide
  184. The Engineer’s Guide to Self-Supervised Learning - Lightly AI, accessed July 4, 2025, https://www.lightly.ai/blog/self-supervised-learning
  185. Self-supervised learning - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Self-supervised_learning
  186. arxiv.org, accessed July 4, 2025, https://arxiv.org/html/2306.03000v3#:~:text=Neural%20Radiance%20Field%20or%20NeRF,an%20interpolation%20approach%20between%20scenes.
  187. Neural radiance field - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Neural_radiance_field
  188. What is NeRF? - Neural Radiance Fields Explained - AWS, accessed July 4, 2025, https://aws.amazon.com/what-is/neural-radiance-fields/
  189. BeyondPixels: A Comprehensive Review of the Evolution of Neural Radiance Fields - arXiv, accessed July 4, 2025, https://arxiv.org/html/2306.03000v3
  190. A Step-by-Step Guide to Federated Learning in Computer Vision by Amit Yadav Biased-Algorithms Medium, accessed July 4, 2025, https://medium.com/biased-algorithms/a-step-by-step-guide-to-federated-learning-in-computer-vision-0984e4a7f8d5
  191. Federated Learning in Computer Vision A Collaborative Revolution by Saiwa - Medium, accessed July 4, 2025, https://medium.com/@saiwadotai/federated-learning-in-computer-vision-a-collaborative-revolution-a1d005087603
  192. A Step-by-Step Guide to Federated Learning in Computer Vision - V7 Labs, accessed July 4, 2025, https://www.v7labs.com/blog/federated-learning-guide
  193. Federated learning - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Federated_learning
  194. Differential privacy - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Differential_privacy
  195. Differential privacy for deep learning at GPT scale - Amazon Science, accessed July 4, 2025, https://www.amazon.science/blog/differential-privacy-for-deep-learning-at-gpt-scale
  196. Differential Privacy and Deep Learning - GeeksforGeeks, accessed July 4, 2025, https://www.geeksforgeeks.org/deep-learning/differential-privacy-and-deep-learning/
  197. Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment, accessed July 4, 2025, https://hdsr.mitpress.mit.edu/pub/sl9we8gh
  198. Homomorphic encryption - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Homomorphic_encryption
  199. Homomorphic Encryption - CyberArk, accessed July 4, 2025, https://www.cyberark.com/what-is/homomorphic-encryption/
  200. Homomorphic Encryption For Computer Vision - CS231n, accessed July 4, 2025, https://cs231n.stanford.edu/reports/2022/pdfs/97p.pdf
  201. 컴퓨터 비전(Computer Vision) 학회 정리(Conferences) - 구르는돼지 - 티스토리, accessed July 4, 2025, https://rollingpig.tistory.com/26
  202. ICCV 2025 - The Computer Vision Foundation, accessed July 4, 2025, https://iccv.thecvf.com/
  203. Most Influential ECCV Papers (2024-09 Version) - Paper Digest, accessed July 4, 2025, https://www.paperdigest.org/2024/09/most-influential-eccv-papers-2024-09/
  204. Most Influential ICCV Papers (2025-03 Version), accessed July 4, 2025, https://www.paperdigest.org/2025/03/most-influential-iccv-papers-2025-03-version/
  205. CVPR 2025 unveils latest trends in AI, image and video synthesis, neural networks, and 3D computer vision - Robotics & Automation News, accessed July 4, 2025, https://roboticsandautomationnews.com/2025/06/23/cvpr-2025-unveils-latest-trends-in-ai-image-and-video-synthesis-neural-networks-and-3d-computer-vision/92454/
  206. Challenge 2025 OpenDriveLab, accessed July 4, 2025, https://opendrivelab.com/challenge2025/
  207. ECCV 2024 – Research Impact & Leadership, accessed July 4, 2025, https://sites.gatech.edu/research/eccv-2024/
  208. Recapping ECCV 2024 Redux: Day 1 - Voxel51, accessed July 4, 2025, https://voxel51.com/blog/recapping-eccv-2024-redux-day-1
  209. [2305.05726] Vision-Language Models in Remote Sensing: Current Progress and Future Trends - arXiv, accessed July 4, 2025, https://arxiv.org/abs/2305.05726
  210. 딥러닝 vs 머신러닝: 2025년 최신 트렌드로 알아보는 성능과 적용 영역 완전정복 - 재능넷, accessed July 4, 2025, https://www.jaenung.net/tree/18915
  211. ECCV 2024: Reflections and Key Takeaways - EVS - Embedded Vision Systems, accessed July 4, 2025, https://embeddedvisionsystems.com/eccv-2024-reflections-and-key-takeaways/
  212. Ethics of Artificial Intelligence UNESCO, accessed July 4, 2025, https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
  213. onlinedegrees.sandiego.edu, accessed July 4, 2025, https://onlinedegrees.sandiego.edu/ethics-in-ai/#:~:text=The%20main%20pillars%20of%20AI,are%20responsible%2C%20unbiased%20and%20trustworthy.
  214. Ethical Considerations and Bias in Computer Vision (CV) by Xenonstack - Medium, accessed July 4, 2025, https://medium.com/xenonstack-ai/ethical-considerations-and-bias-in-computer-vision-cv-50db5bb57999
  215. Algorithmic bias - Wikipedia, accessed July 4, 2025, https://en.wikipedia.org/wiki/Algorithmic_bias
  216. 4 Computer Vision and Society, accessed July 4, 2025, https://visionbook.mit.edu/fairness.html
  217. Biased Technology: The Automated Discrimination of Facial …, accessed July 4, 2025, https://www.aclu-mn.org/en/news/biased-technology-automated-discrimination-facial-recognition
  218. The Problem of Bias in Facial Recognition Strategic Technologies …, accessed July 4, 2025, https://www.csis.org/blogs/strategic-technologies-blog/problem-bias-facial-recognition
  219. What are examples of computer vision bugs related to race? - Milvus, accessed July 4, 2025, https://milvus.io/ai-quick-reference/what-are-examples-of-computer-vision-bugs-related-to-race
  220. UB computer science professor weighs in on bias in facial recognition software, accessed July 4, 2025, https://www.buffalo.edu/news/tipsheets/2024/ub-ai-expert-facial-recognition-expert-ifeoma-nwogu.html
  221. The Bias in the Machine: Facial Recognition Technology and Racial Disparities, accessed July 4, 2025, https://mit-serc.pubpub.org/pub/bias-in-machine
  222. Seeing Clearly: Addressing Bias in Computer Vision Models & AI - Leverege, accessed July 4, 2025, https://www.leverege.com/blogpost/seeing-clearly-addressing-bias-in-computer-vision-models-ai
  223. How To Avoid Bias In Computer Vision Models - Roboflow Blog, accessed July 4, 2025, https://blog.roboflow.com/how-to-avoid-bias-in-computer-vision-models/
  224. Advanced Bias Mitigation Techniques - Number Analytics, accessed July 4, 2025, https://www.numberanalytics.com/blog/advanced-bias-mitigation-techniques-machine-learning
  225. Bias Mitigation Strategies and Techniques for Classification Tasks - Holistic AI, accessed July 4, 2025, https://www.holisticai.com/blog/bias-mitigation-strategies-techniques-for-classification-tasks
  226. Wake up call for AI: Computer-vision research increasingly used for surveillance - Reddit, accessed July 4, 2025, https://www.reddit.com/r/science/comments/1lkdas8/wake_up_call_for_ai_computervision_research/
  227. Privacy Risks in Computer Vision - Medium, accessed July 4, 2025, https://medium.com/@divya.it.saxena/privacy-risks-in-computer-vision-092a764d7281
  228. Computer vision, surveillance, and social control Montreal AI Ethics Institute, accessed July 4, 2025, https://montrealethics.ai/computer-vision-surveillance-and-social-control/
  229. Ethical Considerations and Bias in Computer Vision (CV) - XenonStack, accessed July 4, 2025, https://www.xenonstack.com/blog/ethical-considerations-in-computer-vision
  230. Privacy-Preserving AI: Techniques & Frameworks AI Receptionist Tips & Insights Dialzara, accessed July 4, 2025, https://dialzara.com/blog/privacy-preserving-ai-techniques-and-frameworks/
  231. Privacy-Preserving Optics for Enhancing Protection in Face De-Identification - CVF Open Access, accessed July 4, 2025, https://openaccess.thecvf.com/content/CVPR2024/papers/Lopez_Privacy-Preserving_Optics_for_Enhancing_Protection_in_Face_De-Identification_CVPR_2024_paper.pdf
  232. Examining the Societal Impact and Legislative Requirements of Deepfake Technology: A Comprehensive Study - ResearchGate, accessed July 4, 2025, https://www.researchgate.net/publication/379615642_Examining_the_Societal_Impact_and_Legislative_Requirements_of_Deepfake_Technology_A_Comprehensive_Study
  233. Debating the ethics of deepfakes, accessed July 4, 2025, https://www.orfonline.org/expert-speak/debating-the-ethics-of-deepfakes
  234. Navigating the Mirage: Ethical, Transparency, and Regulatory …, accessed July 4, 2025, https://walton.uark.edu/insights/posts/navigating-the-mirage-ethical-transparency-and-regulatory-challenges-in-the-age-of-deepfakes.php
  235. The Ethics And Implications Of Deepfake Technology In Media And Politics. - Consensus, accessed July 4, 2025, https://consensus.app/questions/ethics-implications-deepfake-technology-media-politics/
  236. Ethical Considerations in Artificial Intelligence: A Comprehensive Disccusion from the Perspective of Computer Vision - ResearchGate, accessed July 4, 2025, https://www.researchgate.net/publication/376518424_Ethical_Considerations_in_Artificial_Intelligence_A_Comprehensive_Disccusion_from_the_Perspective_of_Computer_Vision
  237. A Practical Guide to Building With Ethical AI Frameworks - DhiWise, accessed July 4, 2025, https://www.dhiwise.com/post/a-practical-guide-to-building-with-ethical-ai-frameworks
  238. AI Act Shaping Europe’s digital future - European Union, accessed July 4, 2025, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  239. stlpartners.com, accessed July 4, 2025, https://stlpartners.com/articles/edge-computing/inside-the-eu-ai-act/#:~:text=The%20EU%20AI%20Act%20is%20the%20world’s%20first%20comprehensive%20attempt,rights%20without%20outright%20stifling%20innovation.
  240. 3 Key Highlights from the EU AI Act - Keypoint Intelligence, accessed July 4, 2025, https://keypointintelligence.com/keypoint-blogs/3-key-highlights-from-the-eu-ai-act
  241. 2025년, 꼭 알아야 할 Vision AI 트렌드 5가지 - 슈퍼브 블로그, accessed July 4, 2025, https://blog-ko.superb-ai.com/top-5-vision-ai-trends-2025/
  242. 2025년, 꼭 알아야 할 AI비전 트렌드 7가지, accessed July 4, 2025, https://brunch.co.kr/@acc9b16b9f0f430/135