5.1.2 좌표 기반 신경망(Coordinate-based Neural Networks)의 개념

5.1.2 좌표 기반 신경망(Coordinate-based Neural Networks)의 개념

로봇 공학의 역사에서 환경과 객체를 표현하는 방식은 로봇의 인지(Perception) 능력과 제어(Control) 성능을 규정짓는 근원적인 제약 조건으로 작용해 왔다. 전통적인 로봇 시스템은 세상을 이산적인(discrete) 데이터의 집합으로 이해했다. 2차원 점유 격자 지도(Occupancy Grid Map), 3차원 포인트 클라우드(Point Cloud), 혹은 복셀(Voxel)과 같은 표현 방식들은 공간을 유한한 해상도로 조각내어 저장한다. 그러나 이러한 이산적 표현은 메모리 효율성의 한계와 미분 불가능성(non-differentiability)이라는 치명적인 단점을 내포하고 있다. 최근 SOTA(State-of-the-Art) 로봇 연구들은 이러한 한계를 극복하기 위해 ‘데이터를 함수로 바라보는’ 새로운 패러다임, 즉 좌표 기반 신경망(Coordinate-based Neural Networks) 혹은 **암시적 신경 표현(Implicit Neural Representations, INR)**으로의 전환을 시도하고 있다.1

본 절에서는 좌표 기반 신경망의 수학적 정의와 작동 원리를 심층적으로 분석하고, 신경망이 고주파수(High-frequency) 신호를 학습하기 위해 필요한 핵심 메커니즘인 푸리에 특징(Fourier Features)과 주기적 활성화 함수(SIREN)를 다룬다. 나아가 이 연속적 표현 방식이 로봇의 동역학 모델링, 충돌 감지, 그리고 조작(Manipulation) 계획에 있어 어떠한 제어 이론적 이점을 제공하는지 구체적인 연구 사례를 통해 고찰한다.

1. 함수로서의 신호 표현: 이산에서 연속으로

좌표 기반 신경망의 핵심 아이디어는 대상 신호(이미지, 3D 형상, 오디오, 물리량 등)를 이산적인 배열(array)에 저장하는 것이 아니라, 해당 신호를 근사하는 **연속 함수(continuous function)**로 매개변수화(parameterization)하는 것이다.1

1.1 수학적 정식화 (Mathematical Formulation)

우리가 표현하고자 하는 물리적 신호를 함수 f: \mathcal{X} \rightarrow \mathcal{Y}라고 정의하자. 여기서 \mathcal{X}는 입력 좌표 공간(domain)이며, \mathcal{Y}는 해당 좌표에서의 신호 값(range)이다. 좌표 기반 신경망은 이 함수 f를 다층 퍼셉트론(Multilayer Perceptron, MLP) \Phi_\theta로 근사한다.
\Phi_\theta(\mathbf{x}) \approx f(\mathbf{x}), \quad \mathbf{x} \in \mathbb{R}^m, \mathbf{v} \in \mathbb{R}^n
여기서 \mathbf{x}는 입력 좌표 벡터이며, \mathbf{v}는 출력 신호이다. \theta는 신경망의 가중치(weights)와 편향(biases)을 포함하는 파라미터 집합이다.2

  • 입력 (\mathbf{x}): 로봇 공학에서 입력은 주로 3D 공간 좌표 (x, y, z)이거나, 시간 차원이 포함된 시공간 좌표 (x, y, z, t), 혹은 로봇의 관절 공간(Configuration Space) 좌표 (q_1, q_2, \dots, q_n)가 된다.
  • 출력 (\mathbf{v}): 출력은 해당 좌표의 물리적 속성을 나타낸다. 예를 들어 3D 형상 복원을 위해서는 해당 지점이 물체 내부인지 외부인지를 나타내는 점유(Occupancy) 값이나 표면까지의 최단 거리를 나타내는 부호 있는 거리 함수(Signed Distance Function, SDF) 값이 사용된다. NeRF(Neural Radiance Fields)와 같은 렌더링 작업에서는 색상(RGB)과 밀도(Density, \sigma)가 출력된다.4

이러한 표현 방식에서 데이터는 명시적인 메모리 주소에 저장되는 것이 아니라, 신경망 \Phi_\theta의 파라미터 \theta 안에 ’암시적’으로 인코딩된다. 따라서 이 방식은 **해상도 독립적(Resolution-independent)**이다. 사용자는 원하는 임의의 연속적인 좌표 \mathbf{x}를 질의(Query)할 수 있으며, 신경망은 훈련된 데이터 사이를 부드럽게 보간(Interpolate)하여 값을 출력한다.1

1.2 명시적 표현과의 비교 및 로봇 공학적 함의

로봇 시스템 설계 관점에서 좌표 기반 신경망과 전통적인 이산적 표현 방식의 차이는 메모리 효율성과 연산 비용의 트레이드오프로 나타난다.

표 5.1.2-1 전통적 표현과 좌표 기반 신경망의 비교

특성복셀 격자 / 포인트 클라우드 (Explicit)좌표 기반 신경망 (Implicit)
기본 단위이산적 데이터 (Voxel, Point)신경망 파라미터 (Weights, Biases)
공간 해상도고정됨 (Fixed Resolution)무한 (Continuous) 1
메모리 복잡도O(N^3) (공간 해상도의 세제곱에 비례)O(1) (신경망 크기에 고정) 7
데이터 접근O(1) (인덱싱, 룩업 테이블)O(L \cdot W^2) (MLP 순전파 연산) 8
미분 가능성불가 (Discrete derivatives only)해석적 미분 가능 (Autodiff) 2
위상 변화복잡함 (Mesh connectivity 관리 필요)자연스러움 (Topology agnostic) 10

위 표에서 알 수 있듯이, 복셀 격자는 해상도를 높일수록 메모리 사용량이 기하급수적으로 증가하는 ’차원의 저주(Curse of Dimensionality)’에 직면한다.11 512^3 해상도의 그리드는 수 기가바이트의 메모리를 요구하지만, 좌표 기반 신경망은 수 메가바이트 수준의 파라미터만으로 동일하거나 더 높은 품질의 3D 형상을 압축 저장할 수 있다.7

그러나 로봇의 실시간 제어 관점에서 가장 결정적인 차이는 **미분 가능성(Differentiability)**이다. 포인트 클라우드나 복셀은 불연속적이므로 로봇의 경로 계획이나 최적화 문제에서 그래디언트(Gradient)를 직접 계산할 수 없다. 반면, 좌표 기반 신경망 \Phi_\theta(\mathbf{x})는 입력 \mathbf{x}에 대해 미분 가능하다. 즉, \nabla_\mathbf{x} \Phi_\theta를 닫힌 형태(Closed-form)나 자동 미분(Automatic Differentiation)을 통해 즉시 구할 수 있다. 이는 로봇이 장애물과의 충돌을 회피하기 위한 반발력 벡터를 계산하거나, 물체 표면의 법선 벡터(Surface Normal)를 추정하여 파지(Grasping) 전략을 세울 때 필수적인 정보를 제공한다.8

2. 스펙트럼 편향(Spectral Bias)과 고주파수 학습의 난제

좌표 기반 신경망의 개념은 매력적이지만, 초기의 단순한 구현은 심각한 기술적 장벽에 부딪혔다. 표준적인 MLP(ReLU 활성화 함수 사용)에 (x, y, z) 좌표를 직접 입력하여 이미지를 학습시키면, 결과물이 매우 흐릿하고 고주파수(High-frequency) 세부 사항이 결여된 형태로 나타난다. 이를 딥러닝 이론에서는 **스펙트럼 편향(Spectral Bias)**이라 부른다.4

2.1 NTK 이론을 통한 원인 분석

Rahaman 등과 Tancik 등의 연구에 따르면, 심층 신경망은 본질적으로 저주파수 함수(Low-frequency functions)를 먼저 학습하고 고주파수 성분의 학습은 극도로 느리게 진행되는 경향이 있다.16 이를 수학적으로 설명하기 위해 신경 탄젠트 커널(Neural Tangent Kernel, NTK) 이론이 도입된다.

무한한 너비를 가진 신경망의 학습 역학은 커널 회귀(Kernel Regression)로 근사될 수 있다. 이때 커널 K_{NTK}(\mathbf{x}_i, \mathbf{x}_j)의 고유값(Eigenvalue) \lambda_k는 해당 고유함수(Eigenfunction)에 대응하는 주파수 성분의 학습 수렴 속도를 결정한다. 표준 MLP의 경우, 주파수가 높아질수록 고유값이 급격히 감소한다.4
\text{Convergence Rate} \propto \lambda_k
결과적으로, 이미지의 엣지나 텍스처와 같은 고주파수 정보에 해당하는 성분은 고유값이 0에 가깝기 때문에, 유의미한 학습 시간 내에 오차(Loss)가 줄어들지 않는다. 이는 로봇이 물체의 거친 윤곽은 인식하지만, 조작에 필요한 미세한 표면 거칠기나 틈새를 인식하지 못하는 문제를 야기한다.6

3. 고주파수 신호 복원: 푸리에 특징(Fourier Features)

스펙트럼 편향을 극복하고 신경망이 고주파수 신호를 학습하도록 강제하기 위해, 입력 좌표를 고차원 공간으로 매핑하는 푸리에 특징 매핑(Fourier Feature Mapping) 기법이 제안되었다. 이는 로봇 비전과 3D 재구성 분야의 표준 기술로 자리 잡았다.1

3.1 푸리에 특징 매핑의 수식적 정의

Tancik 등은 “Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains” 4 논문에서 입력 좌표 \mathbf{v} (예: 정규화된 3D 좌표)를 다음과 같은 사인과 코사인 함수들의 집합으로 변환하는 매핑 함수 \gamma(\mathbf{v})를 제안했다.
\gamma(\mathbf{v}) =^T
여기서 \mathbf{B} \in \mathbb{R}^{m \times d}는 고정된(학습되지 않는) 가중치 행렬이다. \mathbf{B}의 각 성분 b_{ij}는 일반적으로 가우시안 분포 \mathcal{N}(0, \sigma^2)에서 샘플링된다.21

이 매핑은 저차원 입력(예: 3차원)을 고차원(예: 2m차원)의 초구(hypersphere) 표면으로 투영하는 효과를 갖는다. 이를 통해 신경망은 단순한 좌표값 대신 좌표의 다양한 주파수 성분을 입력받게 된다.

3.2 커널 대역폭 조절과 \sigma의 역할

푸리에 특징 매핑의 핵심 파라미터는 행렬 \mathbf{B}를 생성할 때 사용되는 표준편차 \sigma이다. NTK 이론적 관점에서, 푸리에 특징 매핑을 거친 MLP의 유효 커널(Effective Kernel)은 **정상성(Stationary)**을 갖게 되며, \sigma는 이 커널의 대역폭(Bandwidth)을 조절한다.4

  • 낮은 \sigma 값: 커널이 넓어지며(Wider Kernel), 네트워크는 저주파수 성분 위주로 학습한다(Underfitting). 결과물은 지나치게 부드러워진다.
  • 높은 \sigma 값: 커널이 좁아지며(Narrower Kernel), 고주파수 성분을 강력하게 학습한다. 그러나 지나치게 높을 경우 노이즈까지 학습하는 오버피팅(Overfitting) 현상이나 알리아싱(Aliasing) 아티팩트가 발생할 수 있다.24

따라서 로봇이 작동하는 환경의 복잡도에 맞춰 적절한 \sigma를 선정하는 것이 고정밀 맵핑의 핵심이다.

4. SIREN: 주기적 활성화 함수의 혁신

푸리에 특징이 입력단을 변형하여 문제를 해결했다면, **SIREN(Sinusoidal Representation Networks)**은 신경망의 활성화 함수 자체를 근본적으로 변경하는 접근법이다. Sitzmann 등은 “Implicit Neural Representations with Periodic Activation Functions” 26에서 ReLU 대신 사인(Sine) 함수를 활성화 함수로 사용할 것을 제안했다.

4.1 SIREN의 구조와 미분 보존성

SIREN의 각 층(Layer)은 다음과 같이 정의된다:
\Phi(\mathbf{x}) = \mathbf{W}_n(\phi_{n-1} \circ \phi_{n-2} \circ \dots \circ \phi_0)(\mathbf{x}) + \mathbf{b}_n

\mathbf{x}_i \mapsto \phi_i(\mathbf{x}_i) = \sin(\omega_0 \mathbf{W}_i \mathbf{x}_i + \mathbf{b}_i)

여기서 \omega_0는 초기 주파수 스케일링 인자(hyperparameter)이다.27

SIREN이 로봇 제어, 특히 동역학 모델링에서 중요한 이유는 도함수의 정보 보존 능력 때문이다.

  • ReLU의 한계: ReLU(\max(0, x))의 1계 도함수는 계단 함수(0 또는 1)이며, 2계 도함수는 0이다(불연속점 제외). 따라서 물리 법칙이 2계 미분 방정식(예: 뉴턴의 제2법칙 F=ma, 파동 방정식 등)으로 표현되는 시스템을 모델링할 때, ReLU 네트워크는 고계 도함수 정보를 제대로 표현하지 못한다.29
  • Sine의 강점: 사인의 도함수는 코사인(위상이 바뀐 사인)이다. 즉, SIREN을 입력에 대해 미분하면, 그 도함수 함수 역시 또 다른 형태의 SIREN이 된다. 이는 신경망이 아무리 깊게 미분되더라도 신호의 복잡도와 연속성이 유지됨을 의미한다.

이 특성 덕분에 SIREN은 편미분 방정식(PDE)의 해를 신경망으로 직접 근사하는 PINN(Physics-Informed Neural Networks)이나, 복잡한 위상을 가진 부호 있는 거리 함수(SDF)를 학습하는 데 탁월한 성능을 보인다.31

4.2 원칙적인 초기화 (Principled Initialization)

주기 함수인 사인을 활성화 함수로 사용하면, 층이 깊어질수록 출력값의 분포가 붕괴되거나 진동할 위험이 있다. 이를 방지하기 위해 SIREN은 특수한 초기화 기법을 요구한다. 가중치 \mathbf{W}는 균등 분포(Uniform Distribution)에서 샘플링된다.28
\mathbf{W} \sim \mathcal{U}\left(-\frac{\sqrt{6/n}}{\omega_0}, \frac{\sqrt{6/n}}{\omega_0}\right)
여기서 n은 입력 뉴런의 수이다. 이 초기화 방식은 네트워크를 통과하는 신호의 분산(variance)을 일정하게 유지하여, 깊은 네트워크에서도 안정적인 학습이 가능하게 한다.33

5. 로봇 제어와 조작을 위한 응용

좌표 기반 신경망은 단순한 시각적 재구성을 넘어, 로봇이 물리적 세계와 상호작용하는 방식을 근본적으로 변화시키고 있다. 특히 충돌 검사, 파지 계획, 동역학 예측 분야에서 **미분 가능한 표현(Differentiable Representation)**의 이점이 극대화된다.

5.1 미분 가능한 충돌 비용과 동작 계획 (SAMP)

기존의 동작 계획(Motion Planning) 알고리즘(예: RRT, PRM)은 환경을 장애물이 있는 공간(Occupied)과 없는 공간(Free)의 이진 상태로 구분하고, 샘플링을 통해 충돌 없는 경로를 찾는다. 그러나 이는 경로의 최적성이나 부드러움을 보장하기 어렵다.

SAMP (Spatial Anchor-based Motion Policy) 연구 34는 환경과 로봇 매니퓰레이터 자체를 신경망 기반의 SDF(Neural SDF)로 표현한다.

  • 메커니즘: 로봇 링크 표면의 점들과 환경의 장애물 사이의 거리를 SDF를 통해 연속적인 값으로 계산한다.
  • 이점: 충돌 비용(Collision Cost)을 미분 가능한 함수로 정의할 수 있다. 즉, 충돌이 발생했을 때 어느 방향으로 관절을 움직여야 충돌을 가장 빠르게 해소할 수 있는지에 대한 그래디언트 정보(-\nabla \text{Cost})를 얻을 수 있다. 이를 통해 충돌 회피 문제를 경사 하강법 기반의 최적화 문제로 변환하여, 복잡한 환경에서도 매끄러운 궤적을 실시간으로 생성한다.8

5.2 기하학과 행동 가능성의 결합 (GIGA)

로봇 파지(Grasping) 작업에서 물체의 형상을 완벽하게 복원하는 것만으로는 충분하지 않다. ’어디를 잡을 수 있는지’에 대한 어포던스(Affordance) 정보가 필요하다.

GIGA (Grasp detection via Implicit Geometry and Affordance) 37는 3D 재구성(Reconstruction)과 파지 감지(Grasp Detection)를 단일한 좌표 기반 신경망으로 통합했다.

  • 구조: 입력된 TSDF(Truncated SDF) 그리드를 특징(Feature) 평면으로 인코딩한 후, MLP를 통해 임의의 좌표 \mathbf{x}에서의 점유 확률(Occupancy)과 파지 품질(Grasp Quality), 접근 방향(Orientation), 그리퍼 폭(Width)을 동시에 출력한다.39
  • 시너지: 형상을 학습하는 과정에서 얻은 기하학적 특징이 파지 성공률 예측에 도움을 주고, 반대로 파지 가능한 영역에 대한 정보가 형상 복원의 정밀도를 높이는 상호 보완적(Synergistic) 효과를 낸다. Voxel 기반 방식(VGN)에 비해 연속적인 좌표 질의가 가능하므로, 이산화 오차 없이 정밀한 파지 위치를 찾아낼 수 있다.37

5.3 변형 물체의 동역학 모델링 (ACID)

천, 반죽, 유체와 같은 변형 가능한 물체(Deformable Objects)는 자유도가 무한대에 가까워 기존의 강체 기반 물리 엔진으로는 모델링하기 어렵다.

ACID (Action-Conditional Implicit Visual Dynamics) 10는 이러한 물체의 상태와 동역학을 암시적 표현으로 학습한다.

  • 접근법: 물체의 현재 형상뿐만 아니라, 로봇의 행동(Action)에 따라 물체가 어떻게 변형될지를 예측하는 **흐름장(Flow Field)**을 좌표 기반 신경망으로 모델링한다.
  • 위상 변화 대응: 좌표 기반 표현은 물체가 찢어지거나 합쳐지는 위상 변화(Topological Change)를 별도의 처리 없이 자연스럽게 표현할 수 있다. 이는 로봇이 반죽을 빚거나 옷을 개는 등의 복잡한 조작 작업을 수행할 때 미래 상태를 예측하는 강력한 도구가 된다.10

6. 결론 및 고찰

좌표 기반 신경망(Coordinate-based Neural Networks)은 로봇에게 세상을 ’저장된 데이터’가 아닌 ’계산 가능한 함수’로 제공한다. 푸리에 특징과 SIREN과 같은 기술적 진보는 신경망이 고주파수 현실 세계를 정밀하게 표현할 수 있게 해주었으며, 이는 메모리 효율성뿐만 아니라 미분 가능성을 통한 제어 이론과의 결합이라는 새로운 지평을 열었다.

하지만 여전히 과제는 남아 있다. 거대한 환경을 단일 신경망으로 표현할 때 발생하는 학습 시간의 증가, 새로운 정보가 들어왔을 때 이전 정보를 잊어버리는 치명적 망각(Catastrophic Forgetting) 문제 등은 실시간 SLAM 및 장기 자율 주행 로봇에 적용하기 위해 해결해야 할 난제이다.43

이어지는 5.1.3절에서는 이러한 암시적 표현이 전통적인 명시적 표현과 어떻게 스펙트럼을 이루며 상호 보완적으로 사용될 수 있는지 살펴보고, 5.2절에서는 이 기술이 빛의 전파 모델과 결합하여 시각적 혁명을 일으킨 NeRF의 구체적인 메커니즘으로 논의를 확장한다.

7. 참고 자료

  1. Implicit Neural Representations (INR) - Emergent Mind, https://www.emergentmind.com/topics/implicit-neural-representation-inr
  2. Neural field - Wikipedia, https://en.wikipedia.org/wiki/Neural_field
  3. NeRP: Implicit Neural Representation Learning with Prior Embedding for Sparsely Sampled Image Reconstruction - PMC - NIH, https://pmc.ncbi.nlm.nih.gov/articles/PMC10889906/
  4. Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains - NeurIPS, https://papers.neurips.cc/paper_files/paper/2020/file/55053683268957697aa39fba6f231c68-Paper.pdf
  5. Coordinate-Based Neural Networks - Emergent Mind, https://www.emergentmind.com/topics/coordinate-based-neural-networks
  6. An Introduction to Neural Implicit Representations with Use Cases | by Nathalie Hager, https://medium.com/@nathaliemariehager/an-introduction-to-neural-implicit-representations-with-use-cases-ad331ca12907
  7. Neural Implicit Representations for 3D Shapes and Scenes | Kaduri’s blog, https://omrikaduri.github.io/2022/06/18/Using-Neural-Implicit-Representations-for-Shape-and-Scenes.html
  8. SAMP: Spatial Anchor-based Motion Policy for Collision-Aware Robotic Manipulators - arXiv, https://arxiv.org/html/2509.11185v1
  9. Lifelike Motions for Robotic Characters - CGL @ ETHZ, https://cgl.ethz.ch/Downloads/Publications/Dissertations/Ser25.pdf
  10. ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object Manipulation - Robotics, https://www.roboticsproceedings.org/rss18/p001.pdf
  11. Survey on Deep Learning-Based Point Cloud Compression - Frontiers, https://www.frontiersin.org/journals/signal-processing/articles/10.3389/frsip.2022.846972/full
  12. arXiv:2306.02099v4 [cs.CV] 9 Aug 2024 - mediaTUM, https://mediatum.ub.tum.de/doc/1833240/x90ytvweuae1tlvcbdpb816tg.2306.02099v4.pdf
  13. Neural Representation of Volumetric Data, https://diglib.eg.org/bitstream/handle/10.1111/cgf14955/v42i7_27_14955.pdf
  14. [R] Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains - Reddit, https://www.reddit.com/r/MachineLearning/comments/hc5q3g/r_fourier_features_let_networks_learn_high/
  15. Understanding the Spectral Bias of Coordinate Based MLPs Via Training Dynamics - arXiv, https://arxiv.org/abs/2301.05816
  16. Towards Understanding the Spectral Bias of Deep Learning - IJCAI, https://www.ijcai.org/proceedings/2021/0304.pdf
  17. On understanding and overcoming spectral biases of deep neural network learning methods for solving PDEs - arXiv, https://arxiv.org/html/2501.09987v1
  18. Overview Frequency Principle/Spectral Bias in Deep Learning - Yaoyu Zhang, https://yaoyuzhang1.github.io/file/B/Overview%20Frequency%20PrincipleSpectral%20Bias%20in%20Deep%20Learning.pdf
  19. Batch Normalization Alleviates the Spectral Bias in Coordinate Networks - CVF Open Access, https://openaccess.thecvf.com/content/CVPR2024/papers/Cai_Batch_Normalization_Alleviates_the_Spectral_Bias_in_Coordinate_Networks_CVPR_2024_paper.pdf
  20. Multiresolution Spectral Representation of Neural Media - Visgraf Lab, https://www.visgraf.impa.br/Data/RefBib/PS_PDF/student-phd-2024-11-hallison-paz/thesis-hallison.pdf
  21. Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains - Computer Science, https://cseweb.ucsd.edu/~ravir/pratul_neurips.pdf
  22. Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains - arXiv, https://arxiv.org/pdf/2006.10739
  23. Enhancing Physics-Informed Neural Networks Through Feature Engineering - arXiv, https://arxiv.org/html/2502.07209v2
  24. Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains - Neural Fields, https://neuralfields.cs.brown.edu/paper_46.html
  25. Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains - YouTube, https://www.youtube.com/watch?v=nVA6K6Sn2S4
  26. [2006.09661] Implicit Neural Representations with Periodic Activation Functions - arXiv, https://arxiv.org/abs/2006.09661
  27. Gentle Introduction to SIREN - Nail Ibrahimli, https://mirmix.github.io/siren/
  28. Sinusoidal Representation Networks (SIREN) - Fusic Tech Blog, https://tech.fusic.co.jp/posts/2021-08-03-what-are-sirens/
  29. Paper Review: Implicit Neural Representations with Periodic Activation Functions - Medium, https://medium.com/@aryamansriram/paper-review-implicit-neural-representations-with-periodic-activation-functions-c1e00179cb8e
  30. SIRENs — Implicit Neural Representations with Periodic Activation Functions - Medium, https://medium.com/@sallyrobotics.blog/sirens-implicit-neural-representations-with-periodic-activation-functions-f425c7f710fa
  31. Implicit Neural Representations with Periodic Activation Functions - Vincent Sitzmann, https://www.vincentsitzmann.com/siren/
  32. SIREN: Implicit Neural Representations with Periodic Activation Functions (Paper Explained) - YouTube, https://www.youtube.com/watch?v=Q5g3p9Zwjrk
  33. STAF: Sinusoidal Trainable Activation Functions for Implicit Neural Representation - arXiv, https://arxiv.org/html/2502.00869v2
  34. SAMP: Spatial Anchor-based Motion Policy for Collision-Aware Robotic Manipulators | Request PDF - ResearchGate, https://www.researchgate.net/publication/395527384_SAMP_Spatial_Anchor-based_Motion_Policy_for_Collision-Aware_Robotic_Manipulators
  35. SAMP: Spatial Anchor-based Motion Policy for Collision-Aware Robotic Manipulators - arXiv, https://arxiv.org/pdf/2509.11185
  36. Daily Papers - Hugging Face, https://huggingface.co/papers?q=3D%20structural%20anchor
  37. Synergies Between Affordance and Geometry: 6-DoF Grasp Detection via Implicit Representations - Robotics, https://www.roboticsproceedings.org/rss17/p024.pdf
  38. GIGA - Google Sites, https://sites.google.com/view/rpl-giga2021/
  39. UT-Austin-RPL/GIGA: Official PyTorch implementation of Synergies Between Affordance and Geometry: 6-DoF Grasp Detection via Implicit Representations - GitHub, https://github.com/UT-Austin-RPL/GIGA
  40. BioGIGA: 6-DoF grasp detection via implicit representations with a human-like manipulator - UT Austin Computer Science, https://www.cs.utexas.edu/~yukez/cs391r_reports/files/Fall-2021/GI.pdf
  41. ACID | ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object Manipulation. RSS 2022. - William Shen’s Homepage, https://b0ku1.github.io/acid/
  42. ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object Manipulation | Request PDF - ResearchGate, https://www.researchgate.net/publication/359227427_ACID_Action-Conditional_Implicit_Visual_Dynamics_for_Deformable_Object_Manipulation
  43. Efficient Neural Representation of Volumetric Data using Coordinate-Based Networks., https://arxiv.org/html/2401.08840
  44. Towards the Spectral bias Alleviation by Normalizations in Coordinate Networks - arXiv, https://arxiv.org/html/2407.17834v1