自然言語におけるCNNの攻勢:QRNNにせまる
12/13のarXivTimes輪講では、CNNの自然言語への適用としてQRNNの論文をピックアップしました。また、前回の分散表現の流れで、グラフの埋め込み表現の論文も扱いました。
QUASI-RECURRENT NEURAL NETWORKS
QUASI-RECURRENT NEURAL NETWORKS · Issue #92 · arXivTimes/arXivTimes
arXivTimes - repository to research & share the machine learning articlesgithub.com
arXivTimes - repository to research & share the machine learning articlesgithub.com
LSTMを超える期待の新星、QRNN - Qiita
RNN「これってもしかして」 CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURAL NETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)…qiita.com
RNN「これってもしかして」 CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURAL NETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)…qiita.com
SKIP-GRAPH: LEARNING GRAPH EMBEDDINGS WITH AN ENCODER-DECODER MODEL
SKIP-GRAPH: LEARNING GRAPH EMBEDDINGS WITH AN ENCODER-DECODER MODEL · Issue #35 · arXivTimes…
arXivTimes - repository to research & share the machine learning articlesgithub.com
arXivTimes - repository to research & share the machine learning articlesgithub.com
About arXivTimes
arXivTimesでは、 動きの速い機械学習の分野において一社だけで動向にキャッチアップしていくのは現実的/効率的ではないとの思いから、GitHub上で論文調査の結果を行うほか、定期的に輪講を実施しています。現在はTIS株式会社と株式会社Albert様とで共同で行っています。輪講は月末近辺の火曜日の16:00~程から行っていますので、参加したいという方はぜひご連絡をお待ちしています。場所は、TISのコワーキングスペースであるbit&innovationで行っています。