년 8월 AI 및 로봇 연구 동향

년 8월 AI 및 로봇 연구 동향

1. 서론: 2025년 8월 AI 및 로봇공학 연구 동향 개관

2025년 8월은 인공지능(AI) 및 로봇공학 분야의 연구 패러다임이 성숙 단계로 접어들고 있음을 명확히 보여주는 한 달이었다. 학계와 산업계 전반에 걸쳐, 초기 모델의 성능 극대화 경쟁을 넘어, 이제는 시스템의 신뢰성, 안전성, 그리고 인간과의 상호작용이라는 보다 근본적인 문제에 대한 깊이 있는 탐구가 이루어졌다. 본 보고서는 이 시기에 발표된 주요 연구 성과를 종합적으로 분석하여, 기술 발전의 핵심 동력과 미래 연구 방향을 제시하고자 한다.

2025년 8월의 연구 지형은 몇 가지 뚜렷한 특징으로 요약된다. 첫째, IJCAI, KDD, Ai4 등 세계 최고 수준의 학술 및 산업 컨퍼런스가 집중적으로 개최되어 AI의 사회적 책임과 산업적 적용에 대한 심도 깊은 논의의 장이 마련되었다.1 둘째, 연구 패러다임의 질적 전환이 관찰되었다. 생성형 AI 분야에서는 기존의 ’설명 가능한 AI(XAI)’를 넘어 사용자의 이해를 돕는 ’설명하는 AI(Explanatory AI)’로의 개념적 전환이 제안되었으며, 로봇공학에서는 단순히 물리적 작업을 수행하는 것을 넘어 인간과의 상호작용이 이루어지는 ’사회적 맥락(Social Context)’에 대한 이해가 핵심 연구 과제로 부상했다.4 마지막으로, 데이터 과학, 로봇공학, 강화학습 등 여러 하위 분야에서 ’강건성(Robustness)’이 공통의 화두로 등장하며, 예측 불가능한 실제 환경에서의 안정적인 작동을 보장하기 위한 기술적 노력이 전개되었다.

본 보고서는 제1부에서 8월에 개최된 세 개의 주요 컨퍼런스를 심층 분석하고, 제2부에서는 동료 심사 이전의 최신 연구가 공개되는 arXiv를 통해 발표된 논문들을 주제별로 나누어 그 흐름을 추적한다. 마지막으로 결론에서는 이 모든 동향을 종합하여 2025년 하반기 연구 지형을 전망하고, 연구자와 실무자를 위한 제언을 제시한다.

컨퍼런스명개최 기간장소핵심 초점/테마주요 연사
IJCAI 20258월 16일-22일캐나다 몬트리올 & 중국 광저우“사회를 위한 AI (AI at the service of society)”정보 없음
KDD 20258월 3일-7일캐나다 토론토지식 발견 및 데이터 과학 (Knowledge Discovery & Data Science)정보 없음
Ai4 20258월 11일-13일미국 라스베이거스산업 AI 적용 (Industrial AI Application)제프리 힌튼 (Geoffrey Hinton), 페이페이 리 (Fei-Fei Li)

2. 주요 학술 및 산업 컨퍼런스 심층 분석

2025년 8월에 개최된 주요 컨퍼런스들의 성격을 분석해 보면, 기초 연구에서부터 알고리즘 개발, 그리고 산업 적용에 이르기까지 명확한 혁신 파이프라인이 관찰된다. IJCAI가 ’사회를 위한 AI’라는 주제 하에 근본적이고 윤리적인 질문을 던지는 학술의 장이라면, KDD는 데이터 기반의 구체적인 알고리즘과 응용 기술을 탐구하는 중간 단계에 위치한다. 마지막으로 Ai4는 이러한 기술들이 어떻게 상업적 가치로 전환되는지를 논하는 산업화의 정점을 보여준다. 특히 주목할 점은, 제프리 힌튼과 페이페이 리와 같은 기초 연구의 대가들이 산업 컨퍼런스인 Ai4의 기조연설자로 나섰다는 사실이다.1 이는 학계와 산업계 간의 피드백 루프가 극적으로 짧아지고 있음을 시사한다. 이제 기업들은 연구 결과가 상용화되기를 기다리는 수동적 입장에서 벗어나, 연구의 근원을 직접 이해하고 이를 바탕으로 비즈니스 전략을 수립하는 능동적 참여자로 변화하고 있다.

2.1 IJCAI 2025: 사회를 위한 AI

IJCAI(International Joint Conference on Artificial Intelligence)는 1969년부터 이어진 AI 분야 최고 권위의 학술대회로, 2025년에는 ’사회를 위한 AI(AI at the service of society)’라는 주제를 전면에 내세웠다.2 이는 AI 기술의 성능적 진보를 넘어, 그것이 사회에 미치는 영향과 윤리적 함의를 학문적 탐구의 중심으로 가져오려는 연구 공동체의 성숙한 의지를 반영한다. ‘AI for Social Good’, ‘Human-Centred AI’, ’AI and Arts’와 같은 특별 트랙의 신설은 이러한 방향성을 구체화하는 핵심적인 장치로 기능하며, AI 기술이 인류의 지속 가능한 발전 목표(UN Sustainable Development Goals) 달성에 기여할 수 있는 방안을 모색하는 장을 마련했다.6

이번 IJCAI의 또 다른 특징은 캐나다 몬트리올을 주 개최지로 하면서 중국 광저우에서 위성 이벤트를 동시에 개최하는 이원적 구조를 채택한 점이다.2 이는 단순히 참가자의 편의를 제공하는 것을 넘어선다. 공식적인 발표에서 언급되었듯이, 이는 특정 국가의 비자 발급 문제와 같은 지정학적 장벽이 과학 기술 교류에 미치는 현실적인 영향을 인정하고, 이에 대응하여 지식의 보편적 접근성을 유지하려는 학술 공동체의 전략적 선택이다. 이러한 시도는 분절되고 있는 세계 속에서 글로벌 과학 커뮤니티의 연대를 유지하기 위한 새로운 컨퍼런스 운영 모델을 제시했다는 점에서 중요한 의미를 가진다.

IJCAI 2025에서 발표된 논문들은 이러한 주제 의식을 충실히 반영했다.

  • 지식 표현 및 추론(KRR)과 윤리: 몬트리올에서 발표된 ‘Responsibility Gap in Collective Decision Making’(Paper 137)은 여러 에이전트가 참여하는 집단 의사결정 시스템에서 특정 결과에 대해 어떤 단일 행위자에게도 책임을 물을 수 없는 ‘책임 공백’ 문제를 정형적으로 분석했다.7 자율주행차나 자율무기 시스템과 같은 고위험 자율 시스템의 사회적 도입이 가속화됨에 따라, 이러한 책임 소재의 불분명성은 반드시 해결해야 할 핵심적인 윤리적, 법적 과제이다. 이 논문은 이러한 문제를 수학적으로 정의하고 그 해소 방안을 탐구함으로써 IJCAI의 주제 의식을 명확히 보여주었다.
  • 설명가능성(Explainability)과 의료 AI: 광저우에서 발표된 ‘MVP-CBM: Multi-layer Visual Preference-enhanced Concept Bottleneck Model for Explainable Medical Image Classification’(Paper 63)은 의료 영상 진단과 같이 인간의 생명과 직결되는 고위험 분야에서 AI의 신뢰성을 확보하기 위한 연구이다.8 이 연구는 AI의 복잡한 내부 결정 과정을 인간 의사가 이해할 수 있는 ’개념(concept)’들과 연결하는 ’개념 병목 모델(Concept Bottleneck Model)’을 제안한다. 이는 AI의 예측 결과를 ‘왜’ 그렇게 판단했는지 설명할 수 있게 함으로써, AI를 단순한 예측 도구가 아닌 신뢰할 수 있는 협력자로 만드는 데 기여한다. 이는 ‘인간 중심 AI(Human-Centred AI)’ 트랙의 목표와 정확히 일치하는 연구 방향이다.
  • 컴퓨터 비전의 자율성: 몬트리올의 ‘Deep Opinion-Unaware Blind Image Quality Assessment’(Paper 258)와 광저우의 ‘TAMambaIR: Texture-Aware Mamba for Efficient Image Restoration’(Paper 306)은 각각 인간의 주관적 평가 데이터 없이 이미지 품질을 자동으로 평가하거나, 계산 효율성을 극대화하며 저하된 이미지를 복원하는 기술을 다룬다.7 이러한 연구들은 AI가 인간의 개입을 최소화하면서도 고도의 지각(perception) 능력을 자율적으로 발휘하는 방향으로 발전하고 있음을 시사한다.

2.2 KDD 2025: 데이터 과학의 최전선

ACM SIGKDD Conference on Knowledge Discovery and Data Mining, 즉 KDD는 데이터 과학 분야에서 가장 영향력 있는 학술대회 중 하나이다. KDD 2025의 가장 큰 특징 중 하나는 연 2회 논문 제출 마감을 운영한다는 점이다.3 8월과 2월, 두 차례에 걸쳐 논문을 접수하고 심사하는 이 방식은 빠르게 변화하는 데이터 과학 분야의 연구 속도를 학회 운영에 적극적으로 반영하려는 시도이다. 이는 1년 주기의 전통적인 학술대회 모델이 최신 연구 결과를 적시에 공유하기 어렵다는 한계를 극복하고, 보다 신속한 연구 결과의 발표와 동료 연구자들의 피드백을 촉진하는 혁신적인 구조라 할 수 있다.

KDD 2025의 워크숍 구성은 현대 데이터 과학이 직면한 핵심적인 딜레마를 명확하게 보여준다. 한편에서는 AdKDD (계산 광고 워크숍)와 ‘추천 시스템 및 개인화를 위한 생성형 AI 워크숍’ 등을 통해 사용자의 데이터를 최대한 활용하여 초개인화된 서비스를 제공하는 기술을 심도 있게 논의한다.10 2024년 기준 약 7,000억 달러에 달하는 디지털 광고 시장의 규모에서 알 수 있듯이, 이러한 기술은 막대한 상업적 가치를 지닌다.10 다른 한편에서는 FedKDD (연합 학습 워크숍)를 통해 여러 곳에 분산된 데이터를 중앙 서버로 모으지 않고 개인정보를 보호하면서 모델을 학습하는 기술을 논의한다.12

이는 데이터 과학 분야의 근본적인 긴장 관계, 즉 ’개인화’와 ‘프라이버시’ 사이의 줄다리기를 반영한다. 기업은 수익 창출을 위해 점점 더 세분화된 사용자 데이터에 기반한 개인화 기술을 필요로 하지만, 동시에 강화되는 개인정보보호 규제(예: GDPR)와 프라이버시에 대한 소비자들의 높아진 요구에 부응해야 하는 과제를 안고 있다. 따라서 KDD 2025는 이러한 산업계의 핵심적인 딜레마를 해결하기 위한 두 가지 기술적 전선—더 나은 데이터 활용 기술과 더 안전한 데이터 보호 기술—이 어떻게 병렬적으로 발전하고 있는지를 보여주는 축소판과 같다.

KDD 2025의 주요 트랙별 연구 동향은 다음과 같다.

  • 응용 데이터 과학(Applied Data Science) 트랙: ’물류 분야의 사기성 허위 배송 탐지 프레임워크(A Fraudulent Blind Shipment Detection Framework in Logistics)’나 ’온라인 광고에서 광고주 유지를 위한 자동 쿠폰 프레임워크(An Auto-Coupon Framework for Advertiser Retention)’와 같은 논문들은 물류, 광고 등 특정 산업 현장의 문제를 해결하는 데 데이터 과학이 어떻게 직접적으로 기여하는지를 구체적인 사례를 통해 보여준다.13
  • 연구(Research) 트랙: ’의료 처치의 다중 결과 분포 학습을 위한 확산 기반 방법론(A Diffusion-Based Method for Learning the Multi-Outcome Distribution of Medical Treatments)’과 같은 연구는 특정 응용 분야를 넘어, 기계학습 방법론 자체의 근본적인 발전에 초점을 맞추고 있다.14
  • 데이터셋 및 벤치마크(Datasets and Benchmarks) 트랙: ’BatteryLife: 배터리 수명 예측을 위한 종합 데이터셋 및 벤치마크’나 ‘MentalChat16K: 대화형 정신 건강 지원을 위한 벤치마크 데이터셋’ 등 새로운 표준 데이터셋과 평가 기준의 제시는 이 분야의 발전을 위한 견고한 실험적 기반을 마련하는 중요한 학술적 기여이다.15 이러한 노력은 연구 결과의 재현성과 객관적인 성능 비교를 가능하게 한다.

2.3 Ai4 2025: 산업 AI의 현재와 미래

Ai4 2025는 8,000명 이상의 참가자, 600명 이상의 연사, 250개 이상의 전시 부스를 자랑하는 북미 최대 규모의 AI 산업 행사이다.1 이 행사의 핵심 목표는 학문적 탐구가 아닌, 실제 비즈니스 환경에서의 AI 적용 사례, 투자 대비 수익(ROI), 거버넌스, 그리고 상업적 가치 창출에 있다.16

이러한 산업 중심의 행사에서 제프리 힌튼과 페이페이 리가 기조연설자로 나선 것은 매우 상징적인 사건이다.1 이들은 각각 인공신경망과 컴퓨터 비전 분야의 발전을 이끈 기초 연구의 대부, 대모로 불리는 인물들이다. 과거에는 산업 컨퍼런스의 기조연설이 주로 기업의 CEO나 제품 책임자들의 차지였던 것과 비교하면 이는 중대한 변화이다. 이 현상은 2025년의 비즈니스 리더들이 경쟁 우위를 확보하기 위해, 당장 시장에 출시된 기술뿐만 아니라 3-5년 후 시장을 지배할 차세대 기술의 근원이 되는 기초 연구의 방향성까지 이해해야 할 필요성을 절감하고 있음을 보여준다. 즉, 연구실에서 시장으로 이어지는 기술 상용화 주기가 전례 없이 단축되면서, 기초 연구자와 최고 경영진 간의 직접적인 대화가 필수적인 시대가 되었음을 의미한다.

Ai4 2025의 주요 테마별 트랙 구성은 이러한 산업계의 동향을 명확히 보여준다.

  • AI 에이전트 및 생성형 AI: 복잡한 작업을 자율적으로 수행하고 추론 능력을 보이는 ’AI 에이전트’와 대규모 언어 모델(LLM)의 산업적 활용 사례가 여러 개의 전용 트랙을 통해 심도 있게 다뤄졌다.1 이는 현재 AI 기술 상용화의 최전선이 어디인지를 명확히 보여준다. ‘기초 및 전략’, ‘대규모 배포’, ‘응용 및 활용 사례’ 등 세분화된 세션 구성은 기업들이 이 기술을 도입하는 과정에서 겪는 다양한 단계의 고민을 반영한다.
  • AI 정책 및 거버넌스: ’AI 정책 서밋(AI Policy Summit)’은 AI 기술의 급격한 발전이 야기하는 규제, 입법, 그리고 거버넌스 문제를 집중적으로 다루는 장이다.1 이는 산업계가 단순히 기술을 개발하고 판매하는 것을 넘어, 기술의 책임감 있는 도입과 사회적 수용성을 확보하기 위해 적극적으로 노력하고 있음을 보여준다.
  • 체화된 AI(Embodied AI) 쇼케이스: 행사장 내에서 Unitree 로봇이 실시간으로 주변 환경을 탐색하고 균형을 잡으며 상호작용하는 모습을 시연한 것은 AI가 디지털 공간을 넘어 물리적 세계와 상호작용하는 ’체화된 AI’의 상업적 잠재력을 가시적으로 보여주는 중요한 사례였다.1 이는 물류, 제조, 서비스 등 다양한 산업 현장에서 AI 기반 로봇이 활용될 미래를 구체적으로 제시했다.
핵심 주제/동향IJCAI 2025 (학술적/사회적 관점)KDD 2025 (데이터/알고리즘 관점)Ai4 2025 (산업적/상업적 관점)
AI 에이전트집단 의사결정 시스템에서의 책임 공백 문제 정형적 분석정보 검색 및 추천 시스템을 위한 AI 에이전트 기술 워크숍 개최비즈니스 효율성 증대를 위한 자율 에이전트 도입 전략 및 사례 발표
생성형 AI예술 창작, 인간 중심 AI 등 사회/문화적 영역에서의 역할 탐구추천 시스템의 초개인화를 위한 생성 모델 활용 알고리즘 연구LLM의 대규모 배포(Deployment at Scale) 전략 및 구체적 활용 사례 공유
안전성 및 윤리’사회를 위한 AI’라는 대주제 하에 근본적인 윤리적 프레임워크 논의연합 학습(Federated Learning) 등 프라이버시 보호 기술 개발AI 정책 서밋(AI Policy Summit)을 통한 규제 및 거버넌스 구조 논의

3. arXiv를 통해 본 최신 연구 흐름

컨퍼런스가 동료 심사를 거친 안정된 연구 성과를 공유하는 장이라면, arXiv는 가장 빠르고 날것의 아이디어가 공개되는 최전선이다. 2025년 8월 arXiv에 등재된 논문들은 AI 및 로봇공학의 미래를 이끌어갈 핵심적인 기술적, 개념적 변화들을 예고한다. 이 시기의 논문들은 특정 기술의 성능을 소수점 단위로 개선하는 점진적 연구보다는, 기존의 문제 해결 방식을 근본적으로 바꾸거나 새로운 연구 방향을 제시하는 개념적 전환에 더 큰 비중을 두는 경향을 보였다.

연구 분야세부 주제대표 논문 (arXiv ID)핵심 통찰
생성형 AI설명하는 AI (Explanatory AI)2508.06352XAI를 넘어 사용자 이해 중심의 새로운 설명 패러다임 전환 제안
로봇공학HRI에서의 사회적 맥락2508.13982로봇의 사회적 지능 구현을 위한 체계적인 개념적 모델 제시
강화학습LLM 능력 확장을 위한 RL2505.18499강화학습을 LLM의 특정 추론 능력을 강화하는 효율적 도구로 활용
자율 시스템정형 검증 (Formal Verification)2409.00536학습 기반 시스템의 안전성 보장을 위한 통계적/수학적 기법 도입

3.1 생성형 AI 및 대규모 언어 모델의 진화

2025년 8월 생성형 AI 분야의 연구는 모델의 규모를 키우는 경쟁에서 벗어나, 모델의 행동을 인간의 가치와 의도에 맞게 조정하고, 그 작동 방식을 인간이 더 잘 이해하고 신뢰할 수 있도록 만드는 방향으로 심화되었다.

가장 주목할 만한 변화는 ‘From Explainable to Explanatory Artificial Intelligence’(2508.06352) 논문에서 제안된 개념적 전환이다.4 기존의 설명 가능한 AI(XAI)는 주로 AI 모델의 내부 알고리즘이 어떻게 작동하는지를 개발자나 전문가에게 투명하게 보여주는 데 집중했다. 예를 들어, 특정 예측에 어떤 특징(feature)이 중요하게 작용했는지를 시각화하는 방식이다. 하지만 이 논문은 이러한 접근이 최종 사용자의 실질적인 이해를 돕는 데는 한계가 있다고 지적한다. 대신, ’설명하는 AI(Explanatory AI)’라는 새로운 패러다임을 제안한다. 이는 생성형 AI의 강력한 언어 생성 능력을 활용하여, 사용자의 지식 수준과 현재 처한 맥락에 맞는 서사적(narrative)이고 개인화된 설명을 제공하는 것을 목표로 한다. 이 관점에서 AI는 더 이상 분석 대상인 ’투명한 도구’가 아니라, 인간과 대화하며 이해를 돕는 ’소통하는 파트너’로 역할이 전환된다.

모델의 성능과 행동을 제어하는 후처리(Post-training) 기술의 중요성 또한 강조되었다. ‘A Survey on Post-training of Large Language Models’(2503.06072)는 막대한 컴퓨팅 자원과 비용이 소요되는 사전학습(pre-training) 이후, 상대적으로 적은 비용으로 모델을 특정 작업이나 윤리적 가치에 맞게 미세 조정하는 다양한 후처리 기술들을 체계적으로 정리했다.17 이는 LLM 기술의 대중화와 산업적 적용을 위해 필수적인 연구 분야이다.

한편, AI와 인간 지능 간의 근본적인 유사성을 탐구하는 연구도 등장했다. ‘Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning’(2508.10057) 연구는 인간이 추상적인 패턴을 인식하고 추론할 때 뇌에서 나타나는 신경인지적 신호(뇌파 등)와 LLM의 내부 표현(internal representation) 사이에 유의미한 상관관계가 있음을 실험적으로 보였다.18 이는 LLM이 단순히 통계적 패턴을 모방하는 것을 넘어, 인간의 고차원적 사고 과정과 유사한 방식으로 정보를 처리할 가능성을 시사하며, AI의 지능에 대한 근본적인 이해를 심화시키는 중요한 발견이다.

이 외에도 LLM이 수학, 물리, 화학, 인문학 등 특정 학문 분야의 연구에 어떻게 적용되고 있는지를 포괄적으로 분석한 서베이 논문(2507.08425)과, 생성형 이미지 모델이 특정 이미지를 학습 데이터로 사용했는지 여부를 외부에서 확인할 수 있게 하는 ‘블랙박스 멤버십 추론(Black-box Membership Inference)’ 기술(2501.06399)에 대한 연구도 발표되었다.19 전자는 LLM이 범용 도구를 넘어 각 분야의 전문 연구를 가속화하는 역할을 하고 있음을 보여주며, 후자는 생성형 AI의 확산에 따라 부상한 저작권 및 데이터 프라이버시 문제를 해결하기 위한 기술적 대응이 함께 발전하고 있음을 보여준다.

3.2 로봇공학: 인간과의 상호작용 및 물리적 지능의 심화

2025년 8월 로봇공학 분야의 연구는 로봇이 인간과 함께하는 공간에서 어떻게 행동해야 하는지에 대한 사회적, 인지적 측면의 탐구와, 불확실한 물리적 환경에 강건하게 대처할 수 있는 기술적 기반을 다지는 두 가지 방향으로 집중되었다. 특히, 생성형 AI 기술이 로봇공학의 오랜 난제들을 해결하는 강력한 도구로 부상하며 새로운 연구 패러다임을 열고 있다.

과거에는 “저 컵 좀 가져다줘“와 같은 모호한 인간의 지시를 로봇이 이해하게 하거나 21, 물리치료사와 같이 인간과 직접 신체적 접촉을 하며 협력 작업을 수행할 때 로봇의 다음 움직임을 인간이 예측할 수 있도록 만드는 문제 22를 해결하기 위해 복잡하고 정교하게 설계된 상태 기계(state machine)나 특정 작업에만 특화된 모델을 사용해야 했다. 그러나 2025년 8월에 발표된 연구들은 이러한 접근 방식의 근본적인 변화를 보여준다. ‘Take That for Me’(2508.16143) 연구에서 제안된 MIEL 프레임워크는 GPT-4o와 같은 LLM을 활용하여 사용자와의 대화형 질의응답을 통해 지시의 모호성을 스스로 해결한다.21 또한 ‘CoRI: Communication of Robot Intent’(2505.20537) 연구는 시각-언어 모델(VLM)을 사용하여 로봇이 계획한 3차원 이동 경로를 시각적 맥락 속에서 해석하고, 이를 바탕으로 “이제 팔을 들어 올릴 것입니다“와 같은 자연어 설명을 자동으로 생성한다.22

이는 생성형 모델이 단순히 주변적인 보조 도구가 아니라, 로봇의 상호작용을 위한 핵심적인 인지 아키텍처(cognitive architecture)의 일부로 통합되고 있음을 의미한다. 로봇의 복잡한 사회적 추론과 의사소통 능력을 사전학습된 거대 파운데이션 모델에 위임함으로써, 개발자는 더 이상 모든 상황에 대한 규칙을 일일이 프로그래밍할 필요가 없게 되었다. 이는 ’생성형 인간-로봇 상호작용(Generative HRI)’이라는 새로운 패러다임의 등장을 예고한다.

3.2.1 인간-로봇 상호작용 (Human-Robot Interaction)

‘The Social Context of Human-Robot Interactions’(2508.13982)는 HRI 연구 분야의 학문적 성숙을 위한 중요한 기반을 제시한다.5 이 논문은 그동안 연구자들 사이에서 모호하고 다양하게 사용되어 온 ’사회적 맥락’이라는 용어의 문제를 지적하고, 상호작용에 참여하는 인간과 로봇의 관계, 주변 환경, 문화적 규범 등을 포함하는 체계적인 개념적 모델을 제안했다. 이는 HRI 분야가 보다 엄밀하고 재현 가능한 과학으로 발전하기 위한 필수적인 단계이다. 또한, 대화형 로봇과의 상호작용에서 사용자가 느끼는 즐거움을 외부 관찰자가 정량적으로 평가할 수 있는 새로운 척도인 ‘HRI CUES’(2405.01354)에 대한 연구는, 로봇과의 긍정적이고 장기적인 관계 형성을 위해 필수적인 사용자 경험을 체계적으로 측정하고 개선하기 위한 방법론을 제시했다.23

3.2.2 소프트 로보틱스 (Soft Robotics)

연성 재료로 만들어져 생명체와 같이 부드러운 움직임이 가능한 소프트 로보틱스 분야에서는 연구의 패러다임을 확장하려는 시도가 돋보였다. ‘Bioinspired underwater soft robots’(2508.11883) 연구는 전통적인 생체모방 공학의 단방향적 접근, 즉 생물학에서 영감을 얻어 로봇을 개발하는 방식에서 벗어나, 개발된 로봇을 다시 생물학적 가설을 검증하는 실험 도구로 활용하는 양방향적 프레임워크를 제안했다.24 예를 들어, 특정 해양 생물의 움직임을 모사한 로봇을 실제 바다 환경에서 테스트함으로써, 그 움직임의 효율성이나 생태학적 이점에 대한 가설을 검증할 수 있다. 또한, 시뮬레이션 환경에서 학습된 연성 로봇의 제어기를 재료의 노화 등으로 물리적 특성이 달라진 실제 로봇으로 효과적으로 이전하는 도메인 번역(domain translation) 기술에 대한 연구(2508.14100)는, 시뮬레이션과 현실 세계 사이의 간극(sim-to-real gap)을 줄여 연성 로봇의 실용성을 높이는 데 중요한 진전을 이루었다.25

3.2.3 핵심 기술 과제 (Foundational Technical Challenges)

로봇이 실세계에서 안전하게 작동하기 위한 근본적인 기술 연구도 활발히 진행되었다. ‘The SET Perceptual Factors Framework’(2508.10798)는 자율 시스템의 인지(perception) 기능이 실패하는 원인을 체계적으로 분석하고, 날씨, 조명, 장애물 등 다양한 환경 요인이 로봇의 센서와 인식 알고리즘에 미치는 영향을 모델링하는 프레임워크를 제안했다.26 이는 로봇의 잠재적 위험을 사전에 식별하고 평가함으로써 시스템의 안전성과 신뢰성을 보장하기 위한 기초를 마련한다. 또한, ‘Learning Robust Dynamics Models for Abstract-Level Planning’(2508.06742) 연구는 로봇이 처한 환경에 대한 불확실성을 고려하여 강건하게 작동하는 동역학 모델(dynamics model)을 학습하는 방법을 제시하며, 예측 불가능한 상황에서도 로봇이 안정적으로 임무를 수행할 수 있는 능력을 향상시키는 데 기여했다.27

3.3 강화학습의 새로운 지평

강화학습(Reinforcement Learning, RL) 분야에서는 이론적 기반을 확장하려는 시도와 함께, 다른 AI 분야의 난제를 해결하는 강력한 도구로서 RL의 잠재력을 탐구하는 실용적 연구가 두드러졌다.

‘Universal Reinforcement Learning in Coalgebras’(2508.15128)와 같은 연구는 범주론(category theory)과 같은 고도의 수학적 개념을 도입하여 강화학습의 이론적 토대를 더욱 일반화하고 확장하려는 시도를 보여준다.28 이러한 이론적 깊이는 장기적으로 더 강력하고 안정적인 학습 알고리즘의 개발로 이어질 수 있다.

그러나 2025년 8월의 더 큰 흐름은 RL을 다른 AI 모델, 특히 LLM의 성능을 향상시키는 핵심 도구로 활용하려는 연구에서 나타났다. ‘G1: Scaling LLMs’ Graph Reasoning Ability with Large-scale RL on Graph-theoretic Tasks’(2505.18499)는 이러한 경향을 가장 잘 보여주는 대표적인 연구이다.29 LLM은 언어적 능력은 뛰어나지만, 노드와 엣지로 구성된 그래프 구조의 데이터를 이해하고 추론하는 데는 본질적인 한계를 가진다. 이 연구는 수많은 그래프 이론 문제를 자동으로 생성하고, LLM이 이 문제들을 푸는 과정에서 정답을 맞혔을 때 보상을 주는 강화학습 방식을 통해 LLM의 그래프 추론 능력을 획기적으로 향상시킬 수 있음을 입증했다. 이는 막대한 데이터로 사전학습된 거대 모델의 특정 취약점을 강화학습을 통해 효율적으로 ’조각’하고 ’강화’하는 새로운 파인튜닝 패러다임을 제시한다.

또한, 실제 환경에 배포될 에이전트의 신뢰성을 높이기 위한 연구도 중요한 방향으로 제시되었다. ‘Beyond expected value: geometric mean optimization for long-term policy performance’(2508.21443) 연구는 기존 RL 알고리즘의 한계를 지적한다.30 대부분의 RL 알고리즘은 무한히 많은 시뮬레이션을 실행했을 때 얻게 될 보상의 평균값, 즉 기댓값을 최적화한다. 하지만 실제 로봇이나 금융 거래 에이전트처럼 단 한 번의 실행이 중요한 경우, 평균 성능은 큰 의미가 없을 수 있다. 이 연구는 이러한 문제를 해결하기 위해, 단일 실행 궤적(single trajectory)에서의 장기적인 성능(기하 평균으로 측정)을 직접 최적화하는 새로운 목표 함수와 알고리즘을 제안했다. 이는 시뮬레이션 환경에서의 평균적인 고성능이 아닌, 실제 환경에서의 안정성과 신뢰성을 보장하는 데 필수적인 연구 방향이다.

3.4 자율 시스템의 신뢰성 및 안전성 확보

2025년 8월의 AI 및 로봇공학 연구 전반을 관통하는 가장 중요한 메타 테마는 ’강건성(Robustness)’과 ’안전성(Safety)’이다. 이는 AI 기술이 연구실의 통제된 환경을 벗어나, 예측 불가능하고 복잡한 실제 세계에 본격적으로 도입되기 시작하면서 나타나는 필연적인 흐름이다. 과거 연구가 “얼마나 높은 성능을 달성할 수 있는가“에 집중했다면, 이제는 “예상치 못한 상황에서도 시스템이 얼마나 안정적으로 작동하고 안전을 보장할 수 있는가“라는 질문이 연구의 중심이 되고 있다.

이러한 경향은 여러 분야에서 동시다발적으로 관찰된다. KDD 컨퍼런스에서는 훈련 데이터에 존재하는 편향된 상관관계(spurious correlation)에 대해 강건한 모델을 만드는 연구가 발표되었고 8, 로봇공학 분야에서는 불확실한 환경에서도 안정적인 동역학 모델을 학습하는 연구 27와 인지 시스템의 실패 요인을 분석하여 안전성을 보장하는 프레임워크 연구 26가 등장했다. 강화학습 분야에서는 조합 최적화 문제에 대한 강건한 해법을 찾는 연구가 발표되었으며 31, 자율 시스템 분야 전반에서는 시스템의 안전을 수학적으로 보증하려는 노력이 이루어졌다.32 이처럼 각기 다른 기술적 문제를 다루고 있지만, 그 근본적인 동기는 ’실패가 심각한 결과를 초래할 수 있는 실제 환경에서 AI 시스템을 신뢰할 수 있도록 만들겠다’는 공통된 목표로 수렴한다. 이는 AI 분야가 순수한 성능 향상 단계를 지나, 안전성과 신뢰성을 확보하는 공학적 성숙 단계로 진입하고 있음을 보여주는 가장 명백한 증거이다.

이러한 흐름을 뒷받침하는 구체적인 연구 방향은 다음과 같다.

  • 정형 검증 및 안전 보증: ‘A Survey of Conformal Prediction for Formal Verification and Control of Autonomous Systems’(2409.00536)는 ’등각 예측(Conformal Prediction)’이라는 통계적 도구를 활용하여, 딥러닝 모델과 같이 내부를 알 수 없는 ‘블랙박스’ 학습 기반 시스템에 대한 실질적인 안전 보증을 제공하는 방법을 체계적으로 제시한다.32 이는 수많은 시나리오를 경험적으로 테스트하는 기존의 방식에서 벗어나, 수학적, 통계적 증명을 통해 “이 시스템은 최소 99.9%의 확률로 안전 경계를 벗어나지 않는다“와 같은 엄밀한 보증을 제공하려는 중요한 시도이다.
  • 체계적인 실패 분석: ‘Exploring Autonomous Agents: A Closer Look at Why They Fail When Completing Tasks’(2508.13143)는 LLM 기반 자율 에이전트가 주어진 임무에 실패하는 원인을 ‘계획 수립 오류’, ‘작업 실행 오류’, ‘응답 생성 오류’ 등 3단계로 체계적으로 분석하고 분류하는 분류법(taxonomy)을 개발했다.33 이는 단순히 성공률을 높이는 것을 넘어, 실패로부터 체계적으로 학습하고 시스템의 취약점을 개선해 나가는 성숙한 공학적 접근법을 보여준다.
  • 효율적인 아키텍처: ‘MoSE: Skill-by-Skill Mixture-of-Experts Learning for Embodied Autonomous Machines’(2507.07818)는 자율주행이나 로봇 조작과 같은 체화된 AI를 위해, ‘운전’, ‘장애물 회피’, ‘주차’ 등 특정 기술(skill) 단위로 전문화된 작은 전문가 모델들을 학습시키고, 상황에 맞는 전문가를 선택적으로 활성화하는 효율적인 MoE(Mixture-of-Experts) 아키텍처를 제안한다.34 이는 모든 것을 할 수 있는 거대한 단일 모델이 가지는 비효율성을 극복하고, 더 빠르고 전문화된 자율 시스템을 구축하기 위한 중요한 아키텍처 연구이다.

4. 결론: 2025년 하반기 연구 방향성 및 제언

2025년 8월에 발표된 주요 연구 성과들을 종합해 볼 때, AI 및 로봇공학 분야의 연구 패러다임은 세 가지 핵심 축을 중심으로 재편되고 있음을 알 수 있다.

첫째, **인간 중심성(Human-Centricity)**의 심화이다. AI는 더 이상 인간의 특정 능력을 대체하거나 능가하는 도구로만 간주되지 않는다. 대신, 인간의 의사결정 과정을 돕고(‘설명하는 AI’), 인간이 살아가는 복잡한 사회적 맥락 속에서 상호작용하며(‘사회적 맥락을 이해하는 로봇’), 인간과 장기적인 관계를 형성하는(‘사용자 즐거움 측정’) 파트너로서의 역할이 강조되고 있다.

둘째, **신뢰성과 강건성(Trust & Robustness)**의 확보다. 벤치마크 데이터셋에서의 높은 정확도를 넘어, 예측 불가능하고 적대적일 수 있는 실제 환경에서의 안정적인 작동이 모든 연구 분야의 공통된 목표로 부상했다. 이를 위해 통계적, 수학적 기법을 동원한 정형 검증, 실패 원인에 대한 체계적 분석, 그리고 불확실성을 내재한 모델링 등 보다 엄밀하고 공학적인 접근법이 주류 연구로 자리 잡았다.

셋째, **생성형 AI의 융합(Integration of Generative AI)**이다. 대규모 언어 모델(LLM)과 시각-언어 모델(VLM)은 이제 그 자체로 독립적인 연구 대상을 넘어, 로봇공학, 강화학습, 데이터 과학 등 다른 분야의 오랜 난제들을 해결하는 핵심적인 구성요소(component)이자 강력한 도구로 활용되고 있다. 이는 마치 과거 데이터베이스나 운영체제가 모든 소프트웨어의 기반 기술이 되었던 것처럼, 생성형 AI가 AI 분야 전반의 발전을 가속화하는 기반 플랫폼으로 기능하기 시작했음을 의미한다.

이러한 동향을 바탕으로 2025년 하반기 및 그 이후의 연구 방향성을 다음과 같이 전망할 수 있다.

  • AI 에이전트: 단일 작업을 수행하는 에이전트 연구를 넘어, 여러 에이전트가 서로 협력하고 경쟁하며 복잡한 목표를 달성하는 멀티에이전트 시스템의 거버넌스와 제어, 그리고 이들 사이의 사회적 상호작용에 대한 연구가 심화될 것이다.
  • 체화된 AI(Embodied AI): 생성형 모델을 통해 물리 세계에 대한 방대한 상식(common sense)을 학습하고, 이를 바탕으로 이전에 경험해보지 못한 복잡한 조작 작업을 수행하는 로봇 연구가 가속화될 것이다. ‘생성형 HRI’ 패러다임은 더욱 구체화되어, 로봇에게 자연어로 임무를 지시하고 로봇이 그 수행 과정을 자연어로 설명하는 것이 표준적인 상호작용 방식으로 자리 잡을 것이다.
  • 안전성과 정렬(Safety and Alignment): AI의 안전성과 인간의 가치와의 정렬(alignment) 문제는 순수한 기술적 연구를 넘어, 정책, 법, 그리고 사회적 합의를 형성하는 학제간 연구로 확장될 것이다. Ai4의 ’AI 정책 서밋’과 같은 논의가 학계와 산업계 전반에서 더욱 중요해질 것이다.

마지막으로, 이러한 변화의 흐름 속에서 연구자와 실무자들은 다음과 같은 점을 고려해야 한다.

  • 연구자에게: 개별 분야의 경계를 넘나드는 융합 연구에 주목해야 한다. 예를 들어, 로봇공학자는 최신 LLM 아키텍처를 자신의 시스템에 통합하는 방법을, 데이터 과학자는 자신이 개발한 모델의 안전성을 통계적으로 검증하는 기법을 적극적으로 도입할 필요가 있다.
  • 실무자에게: AI 모델의 벤치마크 성능 수치에만 의존하는 시대는 지났다. 실제 운영 환경에서 발생할 수 있는 다양한 실패 사례(corner case)와 그에 대한 강건성 확보 방안을 기술 도입의 최우선 순위로 고려해야 한다. KDD에서 논의된 프라이버시 문제와 Ai4에서 다룬 정책 문제는 이제 선택이 아닌, 기술 도입의 필수적인 전제 조건이 되었다.

2025년 8월은 AI와 로봇공학이 단순한 기술적 성취를 넘어 사회와 산업에 깊숙이 통합되기 시작했음을 알리는 중요한 변곡점이었다. 앞으로의 연구는 기술의 ’가능성’을 증명하는 것을 넘어, 그 ’책임’을 다하는 방향으로 나아갈 것이며, 이 과정에서 더 안전하고, 신뢰할 수 있으며, 진정으로 인간에게 유용한 기술이 탄생할 것이다.

5. 참고 자료

  1. Ai4 2025, https://ai4.io/vegas/
  2. IJCAI 2025, https://2025.ijcai.org/
  3. KDD 2025 - Conference2Go - Find The Best Academic Conferences, https://www.conference2go.com/event/kdd-2025/
  4. [2508.06352] From Explainable to Explanatory Artificial Intelligence: Toward a New Paradigm for Human-Centered Explanations through Generative AI - arXiv, https://arxiv.org/abs/2508.06352
  5. [2508.13982] The Social Context of Human-Robot Interactions - arXiv, https://arxiv.org/abs/2508.13982
  6. IJCAI 2025 – Artificial Intelligence for a Better World - Since 1969 | EurekAlert!, https://www.eurekalert.org/news-releases/1094896
  7. Main track accepted papers (Montreal) – IJCAI 2025, https://2025.ijcai.org/montreal-main-track-accepted-papers/
  8. Main track accepted papers (Guangzhou) – IJCAI 2025, https://2025.ijcai.org/guangzhou-main-track-accepted-papers/
  9. KDD 2025 – KDD 2025 | Toronto, Canada, https://kdd2025.kdd.org/
  10. AdKDD 2025 | KDD 2025 Workshop, https://www.adkdd.org/
  11. KDD 2025 - Snap Research, https://research.snap.com/event_programs/kdd-2025.html
  12. FedKDD 2025, https://fedkdd.github.io/
  13. Applied Data Science (ADS) Track Papers - KDD 2025 - SIGKDD, https://kdd2025.kdd.org/applied-data-science-ads-track-papers-2/
  14. Research Track Papers - KDD 2025 - SIGKDD, https://kdd2025.kdd.org/research-track-papers-2/
  15. Datasets and Benchmarks Track Papers - KDD 2025 - SIGKDD, https://kdd2025.kdd.org/datasets-and-benchmarks-track-papers-2/
  16. The Best Artificial Intelligence Conferences & Events of 2025 | Splunk, https://www.splunk.com/en_us/blog/learn/ai-artificial-intelligence-conferences-events.html
  17. [2503.06072] A Survey on Post-training of Large Language Models - arXiv, https://arxiv.org/abs/2503.06072
  18. [2508.10057] Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning - arXiv, https://arxiv.org/abs/2508.10057
  19. [2507.08425] A Survey of Large Language Models in Discipline-specific Research: Challenges, Methods and Opportunities - arXiv, https://arxiv.org/abs/2507.08425
  20. GenAI Confessions: Black-box Membership Inference for Generative Image Models - arXiv, https://arxiv.org/abs/2501.06399
  21. [2508.16143] Take That for Me: Multimodal Exophora Resolution with Interactive Questioning for Ambiguous Out-of-View Instructions - arXiv, https://arxiv.org/abs/2508.16143
  22. [2505.20537] CoRI: Communication of Robot Intent for Physical Human-Robot Interaction, https://arxiv.org/abs/2505.20537
  23. [2405.01354] Human-Robot Interaction Conversational User Enjoyment Scale (HRI CUES), https://arxiv.org/abs/2405.01354
  24. [2508.11883] Bioinspired underwater soft robots: from biology to robotics and back - arXiv, https://arxiv.org/abs/2508.11883
  25. [2508.14100] Domain Translation of a Soft Robotic Arm using Conditional Cycle Generative Adversarial Network - arXiv, https://arxiv.org/abs/2508.14100
  26. [2508.10798] The SET Perceptual Factors Framework: Towards Assured Perception for Autonomous Systems - arXiv, https://arxiv.org/abs/2508.10798
  27. [2508.06742] Learning Causal Structure Distributions for Robust Planning - arXiv, https://arxiv.org/abs/2508.06742
  28. [2508.15128] Universal Reinforcement Learning in Coalgebras: Asynchronous Stochastic Computation via Conduction - arXiv, https://arxiv.org/abs/2508.15128
  29. [2505.18499] G1: Teaching LLMs to Reason on Graphs with Reinforcement Learning - arXiv, https://arxiv.org/abs/2505.18499
  30. [2508.21443] Beyond expected value: geometric mean optimization for long-term policy performance in reinforcement learning - arXiv, https://arxiv.org/abs/2508.21443
  31. [2508.08718] Generative Modeling for Robust Deep Reinforcement Learning on the Traveling Salesman Problem - arXiv, https://arxiv.org/abs/2508.08718
  32. [2409.00536] Formal Verification and Control with Conformal Prediction - arXiv, https://arxiv.org/abs/2409.00536
  33. [2508.13143] Exploring Autonomous Agents: A Closer Look at Why They Fail When Completing Tasks - arXiv, https://arxiv.org/abs/2508.13143
  34. [2507.07818] MoSE: Skill-by-Skill Mixture-of-Experts Learning for Embodied Autonomous Machines - arXiv, https://arxiv.org/abs/2507.07818