Загрузка страницы

PR-284: End-to-End Object Detection with Transformers(DETR)

TensorFlow Korea 논문읽기모임 PR12 284번째 논문 review입니다.
이번 논문은 Facebook에서 나온 DETR(DEtection with TRansformer) 입니다.
arxiv-sanity에 top recent/last year에서 가장 상위에 자리하고 있는 논문이기도 합니다(http://www.arxiv-sanity.com/top?timefilter=year&vfilter=all)
최근에 ICLR 2021에 submit된 ViT로 인해서 이제 Transformer가 CNN을 대체하는 것 아닌가 하는 얘기들이 많이 나오고 있는데요, 올 해 ECCV에 발표된 논문이고 feature extraction 부분은 CNN을 사용하긴 했지만 transformer를 활용하여 효과적으로 Object Detection을 수행하는 방법을 제안한 중요한 논문이라고 생각합니다. 이 논문에서는 detection 문제에서 anchor box나 NMS(Non Maximum Supression)와 같은 heuristic 하고 미분 불가능한 방법들이 많이 사용되고, 이로 인해서 유독 object detection 문제는 딥러닝의 철학인 end-to-end 방식으로 해결되지 못하고 있음을 지적하고 있습니다. 그 해결책으로 bounding box를 예측하는 문제를 set prediction problem(중복을 허용하지 않고, 순서에 무관함)으로 보고 transformer를 활용한 end-to-end 방식의 알고리즘을 제안하였습니다. anchor box도 필요없고 NMS도 필요없는 DETR 알고리즘의 자세한 내용이 알고싶으시면 영상을 참고해주세요!

논문링크: https://arxiv.org/abs/2005.12872
발표자료링크: https://www2.slideshare.net/JinwonLee9/pr284-endtoend-object-detection-with-transformersdetr

Видео PR-284: End-to-End Object Detection with Transformers(DETR) канала JinWon Lee
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
15 ноября 2020 г. 11:25:56
00:34:56
Другие видео канала
DETR - End to end object detection with transformers (ECCV2020)DETR - End to end object detection with transformers (ECCV2020)Giannis Daras: Improving sparse transformer models for efficient self-attention (spaCy IRL 2019)Giannis Daras: Improving sparse transformer models for efficient self-attention (spaCy IRL 2019)PR-169: EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksPR-169: EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksDeformable Convolutional NetworksDeformable Convolutional NetworksWhat is end-to-end deep learning? (C3W2L09)What is end-to-end deep learning? (C3W2L09)PR-297: Training Data-efficient Image Transformers & Distillation through Attention (DeiT)PR-297: Training Data-efficient Image Transformers & Distillation through Attention (DeiT)DETR: End-to-End Object Detection with Transformers (Paper Explained)DETR: End-to-End Object Detection with Transformers (Paper Explained)Object Detection with TransformersObject Detection with TransformersCNNs / wavenet / transformer-based models | Forecasting big time series | Amazon ScienceCNNs / wavenet / transformer-based models | Forecasting big time series | Amazon ScienceGPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지PR-207: YOLOv3: An Incremental ImprovementPR-207: YOLOv3: An Incremental ImprovementHow to Train a Custom Faster R-CNN Model with Facebook AI's Detectron2 | Use Your Own DatasetHow to Train a Custom Faster R-CNN Model with Facebook AI's Detectron2 | Use Your Own DatasetAn Image is Worth 16x16 Words:Transformers for Image Recognition at Scale (Paper Explained)An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale (Paper Explained)DETR: End-to-End Object Detection with Transformers | Paper ExplainedDETR: End-to-End Object Detection with Transformers | Paper Explained전문용어 없이 듣는 딥러닝의 모든 것 (Feat. 인공신경망, 퍼셉트론) [고지식-거니]전문용어 없이 듣는 딥러닝의 모든 것 (Feat. 인공신경망, 퍼셉트론) [고지식-거니]Transformers vs Recurrent Neural Networks (RNN)!Transformers vs Recurrent Neural Networks (RNN)!The hungarian algorithm for weighted assignmentsThe hungarian algorithm for weighted assignments[Code] How to use Facebook's DETR object detection algorithm in Python (Full Tutorial)[Code] How to use Facebook's DETR object detection algorithm in Python (Full Tutorial)End-to-End Object Detection with TransformersEnd-to-End Object Detection with TransformersYOLO 사람처럼 한번에 파악! | AI 인공지능 이미지 객체탐지 'You Only Look Once: Unified, Real-Time Object Detection' 논문 리뷰YOLO 사람처럼 한번에 파악! | AI 인공지능 이미지 객체탐지 'You Only Look Once: Unified, Real-Time Object Detection' 논문 리뷰
Яндекс.Метрика