論文紹介

毎週担当を決め、サーベイ報告、論文紹介などを行ないます。

基本的に ACL, NAACL, EMNLP, COLING, IJCNLP, LREC などの自然言語処理に関する国際会議(自然言語処理の国際会議のランキング)、あるいは NIPS, ICML, UAI, ECML/PKDD などの機械学習に関する国際会議(機械学習の国際会議のランキング)、あるいは KDD, ICDM, CIKM, SDM などのデータマイニングに関する国際会議(データマイニングの国際会議のランキング)、あるいは ICASSP, Interspeech などの音声言語処理に関する国際会議、あるいは SIGIR, WWW, WSDM などの情報検索・ウェブマイニングに関する国際会議(情報検索の国際会議のランキング)、あるいは AAAI, IJCAI などの人工知能に関する国際会議(人工知能の国際会議のランキング)の論文を選び、精読していきます。論文誌(ジャーナル)はボリュームがあって時間がかかるので、どうしても読みたい理由がなければ避けてください(定期的で時間も決まっている論文紹介の枠組みではなく、単発の読み会を開催してください)。また、ショートペーパーはその論文の理解に必要な情報がその論文だけで理解できないことが多いので、こちらもどうしても読みたい理由(ベストペーパーに選ばれていて内容がすばらしいので、必要な事項は先行研究の論文も合わせて解説するなど)がなければ避けてください。

(2014年度後期から)「クリティーク」という、発表者の発表に対して批判的にコメントする人を事前に指名することとします。「クリティーク」の人も事前に論文を読んで準備する必要があるため、原則発表の1週間前まで(遅くとも3日前まで)に、紹介する論文(と入手方法)を発表者の人はアナウンスしてください。

(2016年度から)古典の論文を読む会と最先端の論文を読む会を分けました。古典の論文とは10年以上の論文で、最先端の論文とはそれ以降の論文です。古典の論文のみクリティークを設けます。

(2017年度から)最先端の論文を読む会はスライドを用いて複数人がそれぞれ30分程度で内容を紹介する「読み会」形式で統一することにしました。

(2018年度から)古典の論文を読む会は前期のみ行うことにし、新入生も前期の段階で読んでもらうことにしました。古典の定義を見直し、5年以上前の論文は古典とみなしてよいことにしました。

リソース

スケジュール

国際会議読み会(通年)

  • ACL 2020 読み会(8-9月)
  • EMNLP 2020 読み会(10-11月)
  • COLING 2020 読み会(1-2月)

最先端NLP勉強会(前期)

日時
担当 論文
4/08
安道
Tiziano Piccardi, Miriam Redi, Giovanni Colavizza, Robert West. Quantifying Engagement with Citations on Wikipedia. WWW 2020 [slide]
4/08
Jean-Benoit Delbrouck and Stephane Dupont. Bringing back simplicity and lightliness into neural image captioning. CoRR 2018.
4/15
Nikita Kitaev and Dan Klein. Tetra-Tagging: Word-Synchronous Parsing with Linear-Time Inference. arXiv 2019 [slide]
or/and
David Vilares, Mostafa Abdou, Anders Søgaard. Better, Faster, Stronger Sequence Tagging Constituent Parsers. NAACL 2019
4/15 甫立
Domain Adaptive Text Style Transfer [slide]
Dianqi Li, Yizhe Zhang, Zhe Gan, Yu Cheng, Chris Brockett, Bill Dolan, Ming-Ting Sun (EMNLP 2019)
4/22 本間
JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus [slide]
Makoto Morishita, Jun Suzuki, Masaaki Nagata (LREC 2020)
4/22 吉村
BLEURT: Learning Robust Metrics for Text Generation [slide]
Thibault Sellam, Dipanjan Das, Ankur P. Parikh (ACL 2020)
4/29
お休み
ゴールデンウィーク
5/06
お休み
ゴールデンウィーク
5/13Revisiting Self-Training for Neural Sequence Generation [slide]
Junxian He, Jiatao Gu, Jiajun Shen, Marc'Aurelio Ranzato (ICLR 2020)
5/13
高橋(啓)Specializing Word Embeddings (for Parsing) by Information Bottleneck Xiang Lisa Li and Jason Eisner (EMNLP 2019 best paper) [slide]
5/20
OryzaCloze-driven Pretraining of Self-attention Networks [slide]
Alexei Baevski, Sergey Edunov, Yinhan Liu, Luke Zettlemoyer, Michael Auli (EMNLP2019)
5/20 金子On Measuring and Mitigating Biased Inferences of Word Embeddings
Sunipa Dev, Tao Li, Jeff M. Phillips, Vivek Srikumar (AAAI2020)
5/27
平尾Reformer: The Efficient Transformer [slide]
Nikita Kitaev, Lukasz Kaiser, Anselm Levskaya (ICLR2020)
6/03高橋 (悠)Synthesizer: Rethinking Self-Attention in Transformer Models
Yi Tay, Dara Bahri, Donald Metzler, Da-Cheng Juan, Zhe Zhao, Che Zheng (arXiv 2020)
6/03山下 
6/10
Aizhan 
6/10平澤 Unsupervised Multimodal Neural Machine Translation with Pseudo Visual Pivoting
Po-Yao Huang, Junjie Hu, Xiaojun Chang and Alexander Hauptmann (ACL 2020)
6/17
相田 
6/24

 
7/01

 
7/08
今藤
 
7/15
蘆田
 
7/22
田村
 
7/29
小山
 
8/05
喜友名
 


サブページ (28): すべて表示
Comments