년 3월 AI 및 로봇 연구 동향
1. 서문
본 보고서는 2024년 3월 한 달 동안 발표된 인공지능(AI) 및 로보틱스 분야의 주요 연구와 산업 동향을 심층적으로 분석한다. 이 시기는 단순히 개별 기술의 발전이 아닌, 모델의 지능, 하드웨어의 성능, 로봇의 물리적 구현이 상호작용하며 새로운 패러다임을 창출하는 변곡점으로 기록될 것이다. 본 보고서는 이러한 기술적 융합의 본질을 파헤치고, 그 이면에 숨겨진 동인과 미래에 미칠 파급 효과를 다각적으로 조망하는 것을 목표로 한다.
2. 대규모 언어 모델(LLM) 및 생성형 AI의 진화: 능력의 확장과 책임의 심화
2024년 3월은 LLM 및 생성형 AI 기술이 능력의 한계를 다시 한번 확장하는 동시에, 그 힘에 따르는 사회적 책임의 무게를 절감하게 한 시기였다. 앤트로픽의 Claude 3는 성능의 새로운 지평을 열었고, OpenAI의 보이스 엔진은 인간의 목소리를 재창조할 가능성을 제시했다. 그러나 이러한 눈부신 발전 이면에는 AI 웜이라는 새로운 보안 위협과 규제에 대한 목소리가 공존했다.
2.1 성능의 최전선: 앤트로픽 Claude 3 패밀리
앤트로픽이 발표한 Claude 3 모델 패밀리는 현존하는 AI 모델의 성능 경쟁 구도를 재편했다. 특히 주목할 점은 단일한 최고 성능 모델을 제시하는 대신, Opus, Sonnet, Haiku라는 세 가지 모델을 통해 성능, 속도, 비용 간의 균형을 맞춘 다각적 접근을 시도했다는 것이다.1 이는 AI 모델 시장이 막연한 ’최고 성능’만을 추구하는 단계를 넘어, 특정 비즈니스 요구와 응용 분야에 최적화된 ’맞춤형 고성능’을 제공하는 시대로 진입했음을 시사한다. 시장의 요구가 세분화되면서, 이제 경쟁의 초점은 순수한 벤치마크 점수에서 각기 다른 시나리오에 대한 ’솔루션 포트폴리오’의 가치 제안으로 이동하고 있다.
- Opus 모델의 성능: Claude 3 Opus는 대학원 수준의 전문가 추론(GPQA), 기본 수학(GSM8K) 등 주요 벤치마크에서 OpenAI의 GPT-4를 능가하는 성능을 기록하며, 복잡한 분석, 연구, 고난도 작업 자동화에 새로운 가능성을 열었다.
- ‘바늘 찾기’ 테스트와 메타인지 논란: Claude 3 Opus는 ‘바늘 찾기(Needle in a Haystack)’ 테스트에서 자신의 능력을 증명했다. 이 테스트는 방대한 문서 더미 속에 의도적으로 숨겨진 특정 정보(바늘)를 찾아내는 과제인데, Opus는 이를 성공적으로 수행했을 뿐만 아니라, 자신이 인위적인 테스트를 받고 있음을 인지하는 듯한 발언을 하여 ‘메타인지(Metacognition)’ 혹은 자기인식(self-awareness) 능력에 대한 논쟁을 촉발시켰다.2 이는 모델이 단순한 패턴 매칭을 넘어 고차원적인 맥락을 이해하는 능력을 갖추기 시작했다는 해석과, 훈련 데이터에 포함된 유사 패턴을 정교하게 재현한 것에 불과하다는 회의론을 동시에 낳았다.
2.1.1 [표 1] Claude 3 모델 패밀리 비교 분석
| 특징 | Claude 3 Opus | Claude 3 Sonnet | Claude 3 Haiku |
|---|---|---|---|
| 주요 용도 | R&D, 전략 분석, 복잡 과제 자동화 | 기업용 지식 검색, 영업 자동화 | 실시간 고객 응대, 콘텐츠 관리 |
| 성능 수준 | 최상급 (GPT-4 상회) | 우수 (GPT-3.5 상회) | 매우 빠르고 효율적 |
| 핵심 강점 | 추론 능력, 긴 문맥 이해 | 속도와 성능의 균형 | 응답 속도, 비용 효율성 |
| ‘메타인지’ 논란 | 해당 모델에서 관찰됨 | 해당 없음 | 해당 없음 |
2.2 목소리의 재창조: OpenAI 보이스 엔진(Voice Engine)
OpenAI는 단 15초 분량의 음성 샘플과 텍스트 입력만으로 원본 화자와 매우 유사하고 감정이 풍부한 음성을 생성하는 ‘보이스 엔진’ 기술을 공개했다.3 이는 텍스트-음성 변환(TTS) 기술이 소량의 데이터만으로 고품질 결과를 생성하는 ‘퓨샷(few-shot)’ 학습 능력을 음성 영역에서도 극대화했음을 보여준다. 이 기술은 단순한 정보 전달을 넘어, 교육, 콘텐츠 제작, 접근성 향상 등 다양한 분야에서 개인화된 감성적 소통의 도구로 진화할 잠재력을 가진다.
그러나 OpenAI는 이 기술의 오용 가능성, 특히 사칭이나 가짜뉴스 제작에 악용될 위험을 심각하게 인지하고 있었다. 기술 발전의 속도가 사회가 그 영향을 이해하고 규범을 마련하는 속도를 훨씬 앞지르는 ‘속도 불일치’ 현상이 심화되고 있는 것이다. 이에 OpenAI는 특히 선거가 있는 해의 위험성을 고려하여 기술의 광범위한 배포를 보류하는 신중한 접근을 택했다.4 이는 기술 개발자에게 기술적 완성도만큼이나 책임감 있는 배포 전략과 사회적 합의 형성 능력이 핵심 경쟁력으로 요구됨을 보여주는 사례다. 회사는 워터마킹, 사용 정책 강화, 저명인사 목소리 생성 방지 등의 안전장치를 제안하며 기술과 사회적 수용성 사이의 균형을 모색하고 있다.
2.3 학술적 탐구: LLM의 내면을 향한 여정
학계에서는 LLM의 능력과 한계를 규명하려는 노력이 계속되었다.
- 추론과 계획 능력의 본질: 애리조나 주립대학교의 Subbarao Kambhampati 교수는 LLM이 진정한 의미의 추론과 계획을 수행하는지에 대한 근본적인 질문을 던졌다.5 그의 논문(arXiv:2403.04121)은 LLM의 능력이 인간의 직관적 패턴 인식(System 1 사고)에 가까운지, 아니면 논리적이고 단계적인 추론(System 2 사고)이 가능한지에 대한 학계의 지속적인 탐구를 반영한다.
- 언어 에이전트의 개념 정립: ‘CoALA(Cognitive Architectures for Language Agents)’ 프레임워크(arXiv:2309.02427)는 LLM을 핵심으로 하는 자율 에이전트 시스템을 인지과학의 ‘생성 시스템(production systems)’ 및 ’인지 아키텍처’와 연결하여 설명하려는 시도다.6 이는 복잡해지는 에이전트 연구에 체계적인 이론적 기반을 제공하고, 향후 더 정교한 에이전트 설계의 청사진을 제시한다는 점에서 의의가 있다.
- 편향성의 실체: Mi Zhou 등의 연구(arXiv:2403.02726)는 Midjourney, Stable Diffusion 등 주요 이미지 생성 AI가 특정 직업을 묘사할 때 여성과 아프리카계 미국인에 대한 체계적인 편견을 드러내며, 이러한 편견이 현실 세계의 노동 통계보다도 심각한 수준임을 실증적으로 밝혔다.7 이는 AI 모델이 데이터를 통해 사회의 편견을 그대로 학습하고, 심지어 증폭시킬 수 있다는 위험을 명확히 보여주는 경고다.
2.4 현실 세계와의 충돌: 보안, 규제, 그리고 생존의 문제
AI 기술의 발전은 새로운 차원의 위협과 사회적 논쟁을 야기했다.
- 새로운 차원의 위협, AI 웜(AI Worms): 보안 연구원들은 생성형 AI 에이전트 간에 자율적으로 전파되며 데이터 탈취나 스팸 메일 발송과 같은 악의적 행위를 수행할 수 있는 ’AI 웜’을 개념적으로 시연했다.2 이는 기존의 사이버 보안 패러다임을 넘어서는 새로운 위협의 등장을 예고하며, AI 시스템 자체의 방어 능력과 보안 아키텍처 설계의 중요성을 부각시킨다.
- ‘멸종 수준 위협’ 경고와 규제 압력: 미국 정부가 위탁한 한 보고서는 고도화된 AI가 통제를 벗어날 경우 인류에게 ’멸종 수준의 위협’을 가할 수 있다고 경고하며, AI 개발 속도를 제한하는 과감한 정책 개입을 권고했다.2 이는 AI의 잠재적 위험에 대한 논의가 학술적 차원을 넘어 국가 안보 및 정책의 핵심 의제로 부상했음을 보여준다.
3. 로보틱스와의 융합: 체화된 지능(Embodied Intelligence)을 향하여
2024년 3월은 AI와 로보틱스의 본격적인 융합이 가시화된 시기였다. 디지털 공간에 머물던 AI의 지능이 물리적 세계로 나와 상호작용하는 ’체화된 지능(Embodied Intelligence)’이 더 이상 먼 미래의 개념이 아님이 분명해졌다. 이러한 변화의 중심에는 최첨단 휴머노이드 하드웨어와 AI의 결합, 그리고 LLM을 로봇의 ’두뇌’로 활용하려는 혁신적인 학술 연구들이 있었다.
3.1 세기의 만남: 보스턴 다이내믹스와 도요타 연구소(TRI)
세계 최고의 로봇 하드웨어 기업인 보스턴 다이내믹스와 로보틱스 AI 분야의 선두주자인 도요타 연구소(TRI)가 파트너십을 체결했다.8 이 협력의 핵심은 TRI의 **대규모 행동 모델(Large Behavior Models, LBMs)**을 보스턴 다이내믹스의 차세대
전기 구동 아틀라스(Atlas) 휴머노이드에 통합하는 것이다.8 이는 로보틱스 발전의 병목 현상이 변화하고 있음을 명확히 보여준다. 과거 로봇의 능력은 모터, 센서 등 하드웨어적 한계에 의해 제약되었으나, 아틀라스와 같은 고성능 하드웨어가 등장하면서 이제는 이 하드웨어를 복잡한 환경에서 지능적으로 제어할 소프트웨어가 새로운 병목이 되었다. 이번 파트너십은 바로 이 ’소프트웨어 병목’을 해결하기 위한 정면 돌파 시도다.
이 협력은 생성형 AI 기술을 활용하여 로봇이 다양한 물체를 조작하고, 복잡한 환경에 적응하며, 예측 불가능한 상황에 대처하는 ’범용 지능’을 구현하는 것을 목표로 한다.8 이는 특정 작업을 위해 사전에 프로그래밍된 로봇을 넘어, 스스로 학습하고 일반화하는 로봇으로의 패러다임 전환을 의미하며, 하드웨어의 물리적 능력과 AI 소프트웨어의 인지 능력을 결합하는 것이 미래 로보틱스 경쟁력의 핵심임을 명확히 보여준다.
3.2 로봇의 새로운 언어: LLM 기반 제어 및 학습
학계에서는 LLM을 로봇 제어와 학습에 직접적으로 활용하려는 연구가 큰 성과를 거두었다.
-
DROC (Distillation and Retrieval of Online Corrections): 스탠포드 대학 연구팀이 발표한 DROC(arXiv:2311.10678v2)는 로봇이 작업을 수행하다 실패했을 때, 인간이 자연어(예: “아니, 서랍을 먼저 열어야지”)로 교정해주면, 로봇이 그 피드백을 이해하고 일반화 가능한 지식(“물건을 넣기 전에는 수납공간이 열려있는지 확인해야 한다”)으로 ’증류(distill)’하여 내재화하는 시스템을 제안했다.11 이 시스템은 LLM을 사용하여 인간의 피드백을 해석하고, 이를 일반화된 규칙으로 변환하며, 나중에 유사한 상황에서 해당 규칙을 ’검색(retrieve)’하여 실수를 반복하지 않도록 한다. 이는 인간-로봇 상호작용(HRI)의 패러다임이 일방적 ’명령’에서 상호작용적 ’협력적 코칭’으로 변화하고 있음을 시사한다. 인간은 더 이상 단순한 사용자가 아니라, 로봇의 성장을 돕는 파트너 또는 코치가 된다.
-
3P-LLM (Probabilistic Path Planning using LLM): 또 다른 연구(arXiv:2403.18778v1)는 로봇의 경로 계획 문제를 자연어 문제로 변환하여 LLM(GPT-3.5-turbo)에게 해결하도록 하는 새로운 프레임워크 ’3P-LLM’을 제시했다.12 로봇의 현재 상태, 환경 지도, 목표 지점을 텍스트 프롬프트로 구성하여 LLM에 전달하면, LLM은 최적의 경로를 자연어로 제안하고, 이는 다시 로봇의 동작 명령으로 변환된다. 이 과정에서 불확실성을 관리하기 위해 다음과 같은 확률론적 모델이 사용된다.
P(u_i \vert m, i, s_o, s_g, l_a) \propto P(u_a \vert m, s_o, s_g, l_a)P(l_a \vert i)
여기서 P(u_i \vert...)는 주어진 명령 i와 환경 m 하에서 행동 a가 성공할 확률을 나타내며, 이는 행동 자체의 성공 확률(‘world-grounding’)과 명령에 대한 행동의 적합성 확률(‘task-grounding’)의 곱에 비례한다. 시뮬레이션 환경에서 이 접근법은 전통적인 경로 계획 알고리즘인 RRT, A*보다 더 짧은 계획 시간과 이동 거리를 기록하며 효율성을 입증했다.12
3.2.1 [표 2] LLM 기반 로봇 제어 시스템 비교
| 구분 | DROC (Distillation and Retrieval of Online Corrections) | 3P-LLM (Probabilistic Path Planning using LLM) |
|---|---|---|
| 주요 목표 | 인간의 언어 교정을 통한 로봇 조작 기술의 일반화 | 자연어 명령 기반의 자율 로봇 경로 계획 |
| 핵심 방법론 | LLM 기반 지식 증류 및 검색 | 경로 계획 문제의 자연어 변환 및 LLM 기반 최적화 |
| 상호작용 방식 | 온라인 실시간 교정(Online Correction) | 사전 명령 및 환경 정보 기반 계획(Offline Planning) |
| 주요 기여 | 실패로부터 학습하는 로봇의 적응성 향상 | 복잡한 환경에서의 고수준 경로 계획 자동화 |
| 참고 자료 | 11 | 12 |
이러한 지능형 로봇들이 성공적으로 데이터를 수집하기 시작하면, 로보틱스 경쟁의 다음 병목은 ’양질의 체화된 데이터(embodied data)’가 될 것이다. 로봇이 실제 세계와 상호작용하며 얻는 데이터는 인터넷 텍스트 데이터와 질적으로 다르기 때문에, 향후 경쟁은 누가 더 효율적으로 실제 세계의 상호작용 데이터를 수집하고 이를 학습에 활용하는가의 ’데이터 경쟁’으로 전환될 것이다.
3.3 극한 환경을 위한 로봇: 특수 목적 시스템
아르곤 국립 연구소는 원자력 시설과 같은 위험한 환경에서 인간을 대신해 폐기물을 처리할 수 있는 양팔 원격 조작 로봇 시스템(dual-armed telerobotic system)을 성공적으로 시연했다.13 이는 AI와 로보틱스가 산업 현장의 효율성 증대를 넘어, 인간의 안전을 보장하는 데 결정적인 역할을 할 수 있음을 보여주는 중요한 사례다.
4. AI 인프라 확장과 전문 응용 분야: 스케일과 전문성의 동시 추구
2024년 3월은 AI 기술 발전을 뒷받침하는 물리적 기반, 즉 인프라 경쟁이 전례 없는 규모로 심화되었음을 보여주었다. 동시에, 범용 AI 기술이 특정 전문 분야에 깊이 파고들어 인간 전문가를 능가하는 성과를 내는 사례가 등장했다. 이는 AI 경쟁이 ’규모의 경제’와 ’전문성의 깊이’라는 두 축을 중심으로 전개되고 있음을 명확히 한다.
4.1 컴퓨팅 패권 경쟁: 거대 기술 기업의 군비 확장
최첨단 AI 모델 개발은 이제 천문학적인 규모의 컴퓨팅 인프라와 자본 없이는 불가능한 영역이 되고 있다. 이는 AI 경쟁이 ’알고리즘’의 경쟁을 넘어 ’자본과 인프라’의 경쟁으로 전환되었음을 의미한다.
- 엔비디아의 블랙웰(Blackwell) 아키텍처: AI 칩 시장의 절대 강자인 엔비디아는 이전 세대인 호퍼(Hopper) 아키텍처를 뛰어넘는 차세대 GPU ’블랙웰 B200’을 발표했다.14 이는 AI 모델의 규모가 기하급수적으로 커짐에 따라 요구되는 막대한 연산 능력을 지원하기 위한 것으로, 향상된 성능과 함께 에너지 효율성 개선에도 초점을 맞추었다.15
- 메타의 AGI를 향한 인프라 투자: 메타는 2024년 말까지 35만 개의 엔비디아 H100 GPU를 포함하여, 총 60만 개의 H100에 해당하는 연산 능력을 확보하겠다는 야심 찬 계획을 발표했다.16 이는 단순히 현재의 생성형 AI 모델을 훈련시키는 수준을 넘어, 장기적인 목표인 인공일반지능(AGI) 개발을 위한 인프라를 선제적으로 구축하려는 명확한 의도를 보여준다.14 또한 루이지애나에 100억 달러 규모의 데이터 센터 건설을 발표하며 이러한 의지를 뒷받침했다.14 이러한 추세는 구글, 메타, 마이크로소프트/OpenAI와 같은 소수의 거대 기술 기업으로 AI 시장의 권력이 집중되는 결과를 낳고, 혁신적인 아이디어를 가진 소규모 스타트업의 시장 진입을 극도로 어렵게 만들 수 있다.
4.2 특정 도메인 지능의 승리: 구글 딥마인드의 TacticAI
범용 AI의 발전과 동시에, 특정 도메인에 특화된 AI가 인간 전문가를 능가하는 성과를 내기 시작했다. 이는 ’범용 AI’와 ’전문 AI’가 상충하는 것이 아니라 상호 보완적으로 발전하고 있음을 보여준다. 범용 모델이 제공하는 강력한 기반 위에 특정 도메인의 데이터와 지식을 결합할 때, 강력한 전문 AI가 탄생할 수 있다.
구글 딥마인드는 리버풀 FC와 협력하여 축구의 ‘코너킥’ 전술 분석에 특화된 AI 어시스턴트 ’TacticAI’를 개발했다.17 이는 AI가 범용 지식을 넘어, 고도로 전문화되고 데이터가 제한적인 영역에서도 인간 전문가에게 실질적인 통찰력을 제공할 수 있음을 입증한 사례다.
- 핵심 기능: TacticAI는 (1) 주어진 선수 배치에서 결과를 예측하고, (2) 특정 결과를 유도하기 위한 선수 배치를 제안하며, (3) 과거 유사한 전술을 검색하여 분석하는 기능을 갖추고 있다.
- 기술적 기반: TacticAI는 선수들의 위치와 움직임을 그래프(Graph) 구조로 표현하고 이를 분석하는 기하학적 딥러닝(Geometric Deep Learning) 접근법을 사용한다.18 이는 경기당 약 10회에 불과한 코너킥 데이터라는 제한된 조건 속에서도 일반화 가능한 패턴을 효과적으로 학습하는 데 핵심적인 역할을 했다.
- 전문가 평가: 리버풀 FC의 전술 분석가들을 대상으로 한 블라인드 테스트에서, 전문가들은 TacticAI가 제안한 전술을 실제 경기에서 사용된 전술보다 90%의 경우 더 선호했다.18 이는 TacticAI가 생성한 전술이 인간 전문가의 직관과 경험을 뛰어넘는 수준의 창의성과 효율성을 가질 수 있음을 시사한다. 이는 미래 AI 시장이 거대 기술 기업이 제공하는 ’범용 AI 플랫폼’과, 다양한 버티컬 산업의 전문 기업들이 이 플랫폼 위에서 개발하는 ‘전문 AI 솔루션’ 생태계로 구성될 것임을 예고한다.
5. 결론: 2024년 3월의 유산과 미래를 향한 제언
2024년 3월은 AI와 로보틱스 기술이 각자의 영역에서 성숙하는 단계를 넘어, 서로를 촉진하며 새로운 가능성을 창출하는 **‘융합적 가속화(Convergent Acceleration)’**의 시대가 본격적으로 시작되었음을 알리는 신호탄이었다.
5.1 핵심 동향 종합
- 모델의 진화: LLM은 Claude 3의 등장으로 인간 수준의 복잡한 추론 능력에 한 걸음 더 다가섰으며, 동시에 AI 웜과 같은 새로운 위협과 편향성 문제라는 어두운 그림자를 드러냈다.
- 지능의 체화: 보스턴 다이내믹스와 TRI의 협력, 그리고 DROC, 3P-LLM과 같은 연구는 디지털 공간에 머물던 AI 지능이 물리적 세계로 나와 상호작용하는 ’체화된 지능’의 서막을 열었다.
- 경쟁의 기반: 메타와 엔비디아의 움직임은 미래 AI 패권이 결국 막대한 컴퓨팅 인프라 위에서 결정될 것임을 명확히 했다.
5.2 미래 전망 및 제언
- 체화된 지능의 파급 효과: AI 기반 휴머노이드 로봇의 발전은 제조업, 물류를 넘어 가사, 돌봄 등 사회 전반에 걸쳐 노동의 개념을 재정의할 잠재력을 가진다. 이에 대한 사회적, 경제적, 윤리적 논의를 지금부터 시작해야 한다.
- 안전성과 신뢰의 문제: 기술이 고도화될수록 AI의 안전성, 투명성, 신뢰성은 선택이 아닌 필수가 된다. AI 웜, 딥페이크 음성, 알고리즘 편향 등의 문제에 대응하기 위한 기술적, 제도적 장치 마련이 시급하다.
- 2024년 하반기 관전 포인트: 2024년 3월에 제시된 기술적 이정표들이 하반기에는 실제 제품과 서비스로 어떻게 구현되는지 주목해야 한다. 특히, OpenAI의 차기 모델(GPT-5로 추정), 구글의 제미나이(Gemini) 생태계 확장, 그리고 보스턴 다이내믹스-TRI 협력의 구체적인 프로토타입 공개 여부가 향후 기술 경쟁의 향방을 가늠할 중요한 변수가 될 것이다. 2024년 3월은 끝이 아니라, 더 거대한 변화의 시작이다.
6. 참고 자료
- Trends in AI — March 2024 - Zeta Alpha, https://www.zeta-alpha.com/post/trends-in-ai-march-2024
- March 2024 AI Reading Roundup - Silverchair, https://www.silverchair.com/news/march-2024-ai-reading-roundup/
- Research | OpenAI, https://openai.com/research/
- Navigating the challenges and opportunities of synthetic voices …, https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices
- [2403.04121] Can Large Language Models Reason and Plan? - arXiv, https://arxiv.org/abs/2403.04121
- Cognitive Architectures for Language Agents - arXiv, https://arxiv.org/pdf/2309.02427
- [2403.02726] Bias in Generative AI - arXiv, https://arxiv.org/abs/2403.02726
- Boston Dynamics and Toyota Research Institute Announce Partnership to Advance Robotics Research - Toyota USA Newsroom, https://pressroom.toyota.com/boston-dynamics-and-toyota-research-institute-announce-partnership-to-advance-robotics-research/
- Boston Dynamics - Wikipedia, https://en.wikipedia.org/wiki/Boston_Dynamics
- Large Behavior Models and Atlas Find New Footing | Boston Dynamics, https://bostondynamics.com/blog/large-behavior-models-atlas-find-new-footing/
- Distilling and Retrieving Generalizable Knowledge for Robot …, https://arxiv.org/pdf/2311.10678
- 3P-LLM: Probabilistic Path Planning using Large Language Model …, https://arxiv.org/pdf/2403.18778
- Robotics | Argonne National Laboratory, https://www.anl.gov/topic/science-technology/robotics
- [2024 결산] AI 챗봇 4종이 선정한 2024년 AI 뉴스 톱 10 - AI타임스, https://www.aitimes.com/news/articleView.html?idxno=166493
- Emerging AI: Roundup for March and April 2024 - Peterson Technology Partners, https://www.ptechpartners.com/2024/04/30/emerging-ai-roundup-for-march-and-april-2024/
- Building Meta’s GenAI Infrastructure - Engineering at Meta, https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/
- 2024: A year of extraordinary progress and advancement in AI - Google Blog, https://blog.google/technology/ai/2024-ai-extraordinary-progress-advancement/
- TacticAI: an AI assistant for football tactics - Google DeepMind, https://deepmind.google/discover/blog/tacticai-ai-assistant-for-football-tactics/