원문정보
Realtime Volume Deformation Rendering using NeRF
초록
영어
This research proposes a virtual medical planning method that can quickly and simply predict the outcomes following medical procedures. The method generates volume data from recorded videos using Neural Radiance Fields (NeRF) and separates the coordinate system into real and virtual spaces through spatial separation. Visualization of deformations is performed using inverse transformations in the virtual space. Moreover, users can set the size and intensity of the desired deformations based on their input parameters, ensuring proper deformations for various sizes of correction areas. The intensity of the deformation diminishes as it moves away from the center of the deformation area, using the Manhattan distance between coordinates as a weight for the deformation intensity. Lastly, transformations can be performed in interactive time through parallel processing using a GPU.
한국어
본 연구는 의료 시술 후의 경과를 빠르고 간단하게 예측할 수 있는 가상 의료 계획 방법을 제안한다. 제안 방법은 촬영된 동영상으로부터 NeRF를 이용하여 볼륨데이터를 생성하고, 공간 분리를 통해 좌표계를 실공간과 가상공간 으로 분리한다. 변형체 가시화는 가상공간에서의 역변환을 이용하여 수행한다. 또한, 사용자의 입력을 통해 변형하 고자 하는 영역의 크기와 변형의 세기를 설정하여 다양한 교정 부위의 크기에 대해서 자연스러운 변형이 이루어지도 록 한다. 변형은 변형 영역의 중심으로부터 멀어질수록 변형 세기가 감쇠되도록 좌표들 사이의 맨해튼 거리 (manhattan distance)를 변형 세기의 가중치로 사용한다. 마지막으로, 그래픽스 처리장치(GPU)를 이용한 병렬 화를 통해 대화적 시간으로 변형이 가능하다.
목차
Abstract
1. 서론
2. 관련 연구
2.1 NeRF
2.2 변형체 가시화
3. 다시점 동영상을 이용한 볼륨데이터 생성
3.1 다시점 영상에서 볼륨데이터 생성
3.2 동영상 촬영에서 다시점 영상 생성
4. 변형체 생성 및 실시간 가시화
4.1 공간 분리 개념
4.2 사용자 입력값으로 마우스 이동 벡터 생성
4.3 변형 범위 및 변형 세기 설정
4.4 CUDA로 변형체 실시간 가시화
5. 실험 결과
6. 결론
감사의 글
참고문헌