Deep Learning入門:Attention(注意)
Deep LearningにおいてConvolutional Neural Networksに並んで大変ポピュラーに用いられつつあるニューラルネットワークの基本的な構造、Attention(注意)について解説します。
前回の動画:「量子化によるニューラルネットワークのコンパクト化」
https://www.youtube.com/watch?v=qpd9I8m1bOA
Deep Learning入門:ニューラルネットワーク設計の基礎
https://www.youtube.com/watch?v=O3qm6qZooP0
Deep Learning入門:Recurrent Neural Networksとは
https://www.youtube.com/watch?v=yvqgQZIUAKg
Deep Learning入門:数式なしで理解するLSTM(Long short-term memory)
https://www.youtube.com/watch?v=unE_hofrYrk
再生リスト「Deep Learning入門」
https://www.youtube.com/playlist?list=PLg1wtJlhfh23pjdFv4p8kOBYyTRvzseZ3
再生リスト「実践Deep Learning」
https://www.youtube.com/playlist?list=PLg1wtJlhfh20zNXqPYhQXU6-m5SoN-4Eu
再生リスト「Deep Learning 精度向上テクニック」
https://www.youtube.com/playlist?list=PLg1wtJlhfh216rnmSv_oEDuchRjgUqxBi
Neural Network Console
https://dl.sony.com/ja/
Neural Network Libraries
https://nnabla.org/ja/
Squeeze-and-Excitation Networks
Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Enhua Wu
https://arxiv.org/abs/1709.01507
Attention Is All You Need
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin
https://arxiv.org/abs/1706.03762
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
https://arxiv.org/abs/1810.04805
Видео Deep Learning入門:Attention(注意) канала Neural Network Console
前回の動画:「量子化によるニューラルネットワークのコンパクト化」
https://www.youtube.com/watch?v=qpd9I8m1bOA
Deep Learning入門:ニューラルネットワーク設計の基礎
https://www.youtube.com/watch?v=O3qm6qZooP0
Deep Learning入門:Recurrent Neural Networksとは
https://www.youtube.com/watch?v=yvqgQZIUAKg
Deep Learning入門:数式なしで理解するLSTM(Long short-term memory)
https://www.youtube.com/watch?v=unE_hofrYrk
再生リスト「Deep Learning入門」
https://www.youtube.com/playlist?list=PLg1wtJlhfh23pjdFv4p8kOBYyTRvzseZ3
再生リスト「実践Deep Learning」
https://www.youtube.com/playlist?list=PLg1wtJlhfh20zNXqPYhQXU6-m5SoN-4Eu
再生リスト「Deep Learning 精度向上テクニック」
https://www.youtube.com/playlist?list=PLg1wtJlhfh216rnmSv_oEDuchRjgUqxBi
Neural Network Console
https://dl.sony.com/ja/
Neural Network Libraries
https://nnabla.org/ja/
Squeeze-and-Excitation Networks
Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Enhua Wu
https://arxiv.org/abs/1709.01507
Attention Is All You Need
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin
https://arxiv.org/abs/1706.03762
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
https://arxiv.org/abs/1810.04805
Видео Deep Learning入門:Attention(注意) канала Neural Network Console
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
![](https://i.ytimg.com/vi/sVHTzEOxBxU/default.jpg)
![【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning](https://i.ytimg.com/vi/bPdyuIebXWM/default.jpg)
![Deep Learningで行う自然言語処理入門](https://i.ytimg.com/vi/NzuDWpHPLco/default.jpg)
![Attention in Neural Networks](https://i.ytimg.com/vi/W2rWgXJBZhU/default.jpg)
![Deep Learning精度向上テクニック:様々な最適化手法 #1](https://i.ytimg.com/vi/q933reMpvX8/default.jpg)
![Le deep learning](https://i.ytimg.com/vi/trWrEWfhTVg/default.jpg)
![Deep Learning入門:Generative Adversarial Networks (GAN)とは?](https://i.ytimg.com/vi/2rC2_-HtpsQ/default.jpg)
![Synthesizer: Rethinking Self-Attention in Transformer Models (Paper Explained)](https://i.ytimg.com/vi/q7QP_lfqnQM/default.jpg)
![Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)](https://i.ytimg.com/vi/unE_hofrYrk/default.jpg)
![【解説】10分で機械翻訳を理解する - Transformer](https://i.ytimg.com/vi/BcNZRiO0_AE/default.jpg)
![【機械学習入門】機械学習を学び始めたい人がはじめに見る動画](https://i.ytimg.com/vi/EeSerya_9XE/default.jpg)
![Deep Learning入門:マルチタスク学習](https://i.ytimg.com/vi/2R7CurdWmSY/default.jpg)
![Deep Learning入門:Recurrent Neural Networksとは?](https://i.ytimg.com/vi/yvqgQZIUAKg/default.jpg)
![CNNs / wavenet / transformer-based models | Forecasting big time series | Amazon Science](https://i.ytimg.com/vi/GiD87DeadYY/default.jpg)
![【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning](https://i.ytimg.com/vi/FFoLqib6u-0/default.jpg)
![Axial-DeepLab: Stand-Alone Axial-Attention for Panoptic Segmentation (Paper Explained)](https://i.ytimg.com/vi/hv3UO3G0Ofo/default.jpg)
![今話題のTransformer徹底解説【Vol.1】](https://i.ytimg.com/vi/Iwv82ASHeL4/default.jpg)
![【深層学習】 CNN 紹介 "ResNet" 言わずとしれた CNN の標準技術が登場!【ディープラーニングの世界 vol. 17】#080 #VRアカデミア #DeepLearning](https://i.ytimg.com/vi/WslQrSO94qE/default.jpg)
![【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】 #057 #VRアカデミア #DeepLearning](https://i.ytimg.com/vi/vU-JfZNBdYU/default.jpg)
![Introduction to Deep Learning : Attention Mechanism](https://i.ytimg.com/vi/d25rAmk0NVk/default.jpg)