논문 요약 13

[ICCV-2021] Nerfies: Deformable Neural Radiance Fields (2)

* 본글의 모든 그림, 영상은 논문의 본문 및 발표영상에서 가져왔습니다. 1편에 이어서 구체적으로 어떤 regularization term을 사용해서 결과를 향상시켰는지 더 살펴보도록 하겠습니다. 이번 글에는 전반적인 구조에 대한 내용은 포함되어있지 않으니, 1편을 보시지 않은 분들은 1편부터 봐주세요! Nerfies: Deformable Neural Radiance Fields (1) : https://reading-cv-paper.tistory.com/entry/archive-Nerfies-Deformable-Neural-Radiance-Fields-1 [archive] Nerfies: Deformable Neural Radiance Fields (1) * 본글의 모든 그림, 영상은 논문의 본문 및 ..

논문 요약 2021.06.07

[ICCV-2021] Nerfies: Deformable Neural Radiance Fields (1)

* 본글의 모든 그림, 영상은 논문의 본문 및 발표영상에서 가져왔습니다. 상당히 오랜만에 논문의 내용을 정리해봅니다. 뭐 이런저런 이유로 오늘은 좀 다른 내용의 논문을 들고 왔습니다. 요즘 가장 핫한 분야 중에 하나인 NeRF(Neural Radiance Fields)에 관련된 논문인데요! 본격적인 내용으로 들어가기 앞서 아주 간략하게 NeRF에 대해서 알아보도록 하겠습니다. 우선, NeRF의 궁극적 목표는 view synthesis입니다. 하나의 물체([그림 1]에서는 드럼)를 여러 각도에서 동시에 촬영한 이미지 n장을 입력 데이터로 사용합니다. 그 이미지들을 이용해서 이미지에 주어지지 않은 새로운 각도에서의 동일 물체의 이미지를 만들어내는 것이죠. 이 분야에 대해 처음 들어보시는 분들은, 이게 왜 어..

논문 요약 2021.06.04

[TPAMI] OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 오늘은 좀 더 거슬러 올라가, OpenPose에 대해 설명해볼까 합니다. 이 논문의 경우 2D 이미지에서 사람의 skeleton을 찾는데에 정말 좋은 성능을 보이는, 당시에 정말 충격적인 성능을 보여준 논문입니다. 저자가 코드도 잘 짜두었고, 파이썬으로도 쉽게 사용할 수 있도록 되어있어, 아마 많은 분들이 이미 한번 사용해보셨을 수 도 있을 것 같네요! 그럼 어떤 방식을 취했길래 좋은 성능을 보였는지에 대해 설명해보도록 하겠습니다. + 이 논문의 경우 두가지 버전이 있습니다. 먼저 나온 것은 CVPR 2017에 소개된 버전인데요. 저는 그것보다 TPAMI에서 발표된 저널 버전으로 설명하도록 하겠습니다. 이 버전이 좀 더 성능이 좋고 속도 또한 개선되었..

논문 요약 2020.06.24

[CVPR-2018]V2V-PoseNet: Voxel-to-Voxel Prediction Network for Accurate 3D Hand and Human Pose Estimation from a Single Depth Map

* 본글의 모든 그림은 논문의 본문과 저자의 발표 자료에서 가져왔습니다. 정말 너무너무 오랜만에 새로운 논문을 들고왔습니다. 이런 완성도 낮은 글을 누가 찾아볼까 생각했는데, 생각보다 틈틈히 많은 분들이 방문해주셔서 감사한 마음도 있고, 부끄러운 마음도 드네요ㅎㅎ 제가 잠시 포스팅을 하지 않는 동안, 졸업을 하고, 취직을 하게 되면서 약간(?) 연구 주제가 바뀌게 되었습니다. 오늘은 그 동안 리뷰했던 것과 달리, pose estimation 분야에서의 논문에 대해 소개하고자 합니다. 이전까지는 3d skeleton based action recognition과 관련된 논문이었는데, 오늘은 그 알고리즘들의 기반이 되는 3d skeleton을 depth 영상에서 어떻게 추출하는가에 대한 내용입니다. 그 중에..

논문 요약 2020.05.28

[CVPR-2019]Skeleton-Based Action Recognition with Directed Graph Neural Networks

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 정말 오랜만에 리뷰를 시작합니다. 그 동안 논문 submission을 준비하느라 바빠서 논문을 읽어도 정리를 못했네요ㅠ 오늘 리뷰할 논문은 'Skeleton-Based Action Recognition with Directed Graph Neural Networks'로 이전에 계속 행동인식 중에서도 GCN 구조를 이용한 알고리즘을 소개했었는데 그 뒤를 잇는 논문입니다. 기본적인 모델의 구성은 이전에 리뷰했던 ST-GCN, AS-GCN, 2S-AGCN 들과 유사합니다. 모두 같은 ST-GCN을 base line으로 업그레이드 시킨 논문들이기 때문이죠. 이번 논문 역시 앞 부분의 내용들은 모두 스킵하고 설명할 예정입니다. 따라서 뭐지? 갑자기 이건 어디서..

논문 요약 2019.11.26

[CVPR-2019]Two-Stream Adaptive Graph Convolutional Networks for Skeleton-Based Action Recognition

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 2019/08/23 - [논문 요약] - [AAAI-2018]Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition [AAAI-2018]Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition * 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 이번 요약하는 논문은 AAAI 2018에 나온 "Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition"입니다. 최근(작년부터?)..

논문 요약 2019.09.17

[CVPR-2019]An Attention Enhanced Graph Convolutional LSTM Networks for Skeleton-Based Action Recognition

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 이번 요약하는 논문은 CVPR 2019에 나온 "An Attention Enhanced Graph Convolutional LSTM Networks for Skeleton-Based Action Recognition"입니다. 지난번 포스팅에 이어서 이번에도 CVPR에 나온 논문입니다. 역시나 최근의 행동인식 분야의 핫한 방식인 GCN을 사용한 논문이구요. 거기에 추가적으로 시계열 정보에 강세를 보였던 LSTM을 결합한데다가 attention까지 얹었습니다. 제가 그동안 리뷰했던 논문들의 알고리즘을 조금씩 섞었다고 보시면 될 것 같네요ㅎㅎㅎ 구체적으로 어떻게 적용하고 있는지는 아래의 설명을 통해 풀어보도록 하겠습니다. 논문 전문 : https://arx..

논문 요약 2019.09.03

[CVPR-2019]Actional-Structural Graph Convolutional Networks for Skeleton-based Action Recognition

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 이번 요약하는 논문은 CVPR 2019에 나온 "Actional-Structural Graph Convolutional Networks for Skeleton-based Action Recognition"입니다. 지난번 포스팅했던 ST-GCN 논문의 후속 논문으로 컴퓨터 비젼 분야에서 가장 유명한 학회에 나온 논문입니다. (부럽다...) 이전 논문에서 사용했던 GCN(Graph Convolutional Networks)을 사용하는 논문입니다. 지난번 말씀드렸던 이전 논문들의 문제점을 해결하고자 나왔는데 완성도 있고 어려운 논문이에욯ㅎㅎㅎ 구체적으로 어떻게 적용하고 있는지는 아래의 설명을 통해 풀어보도록 하겠습니다. 논문 전문 : https://arxi..

논문 요약 2019.09.03

[AAAI-2018]Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 이번 요약하는 논문은 AAAI 2018에 나온 "Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition"입니다. 최근(작년부터?)에 행동 인식 분야에서 가장 핫하게 등장하는 네트워크가 바로 GCN(Graph Convolutional Networks)입니다. GCN은 쉽게 설명드리자면, 어떤 그래프 구조를 이미지 convolution과 유사한 방식으로 연산해서 특징점을 추출하는 네트워크입니다. 사람의 몸도 어떻게 보면 각 관절과 그 관절들이 연결되어있는 구조로 그래프 구조라고 볼 수 있죠. 그렇기 때문에 GCN을 사용한 논문들에서도 좋은 성능을 보이고 있습니다..

논문 요약 2019.08.23

[ICCV-2017]Ensemble Deep Learning for Skeleton-based Action Recognition using Temporal Sliding LSTM networks

* 본글의 모든 그림은 논문의 본문에서 가져왔습니다. 이번 요약하는 논문은 2017년 ICCV에 소개된 "Ensemble Deep Learning for Skeleton-based Action Recognition using Temporal Sliding LSTM networks" 입니다. 이전에 소개했던 논문들은 행동인식을 위해 특정한 방식으로 attention map을 구하고 적용했던 알고리즘이었습니다. 본 논문의 경우 이전 논문에서 얘기하는 그런 attention을 사용하는 논문은 아니구요, LSTM을 이용해서 학습을 하긴 할건데 어떻게 하면 기존의 LSTM의 문제점을 해결할 수 있을지에 대해 연구된 논문이라고 보시면 될 것 같습니다. 논문 전문 : http://openaccess.thecvf.co..

논문 요약 2019.08.06