研究室の活動‎ > ‎論文紹介‎ > ‎

NAACL2019

日時

7-8月

時間 担当 論文名
07/04
平澤 Density Matching for Bilingual Word Embedding [slide] Chunting Zhou, Xuezhe Ma, Di Wang, Graham Neubig
07/04 金子 What’s in a Name? Reducing Bias in Bios Without Access to Protected Attributes
Alexey Romanov, Maria De-Arteaga, Hanna Wallach, Jennifer Chayes, Christian Borgs, Alexandra Chouldechova, Sahin Geyik, Krishnaram Kenthapadi, Anna Rumshisky and Adam Kalai
07/04 中澤 Competence-based Curriculum Learning for Neural Machine Translation
Emmanouil Antonios Platanios, Otilia Stretcu, Graham Neubig, Barnabas Poczos, Tom M. Mitchell
07/11 安道 Seeing Things from a Different Angle: Discovering Diverse Perspectives about Claims[slide]
Sihao Chen, Daniel Khashabi, Wenpeng Yin, Chris Callison-Burch, Dan Roth
07/11 Text Generation from Knowledge Graphs with Graph Transformers
Rik Koncel-Kedziorski, Dhanush Bekal, Yi Luan, Mirella Lapata, and Hannaneh Hajishirzi
07/11
Longtu
 Improving Domain Adaptation Translation with Shared Encoder-Decoder
(The title is "Improving Domain Adaptation Translation with Domain Invariant and Specific Information" on arXiv)
Shuhao Gu, Yang Feng and Qun Liu
07/18 Aizhan Learning to Describe Unknown Phrases with Local and Global Contexts
Shonosuke Ishiwatari, Hiroaki Hayashi, Naoki Yoshinaga, Graham Neubig, Shoetsu Sato, Masashi Toyoda, Masaru Kitsuregawa
07/18 甫立  Mining Discourse Markers for Unsupervised Sentence Representation Learning
Damien Sileo, Tim Van De Cruys, Camille Pradel, Philippe Muller
07/18 勝又 Word-Node2Vec: Improving Word Embedding with Document-Level Non-Local Word Co-occurrences [slide]
Procheta Sen, Debasis Ganguly, Gareth Jones. 
07/25 吉村 Reinforcement Learning Based Text Style Transfer without Parallel Training Corpus
Hongyu Gong, Suma Bhat, Lingfei Wu, JinJun Xiong, Wen-mei Hwu
07/25 嶋中 Word Embeddings-based Automatic Evaluation Metric using Word Position Information
Hiroshi Echizen’ya, Kenji Araki and Eduard Hovy
07/25
新井
 A Study of Incorrect Paraphrases in Crowdsourced User Utterances
Mohammad-Ali Yaghoub-Zadeh-Fard, Boualem Benatallah, Moshe Chai Barukh, Shayan Zamanirad
07/29 白井
How to Avoid Sentences Spelling Boring? Towards a Neural Approach to Unsupervised Metaphor Generation
Zhiwei Yu and Xiaojun Wan
07/29 黒澤 Understanding and Improving Hidden Representation for Neural Machine Translation
Prajit Ramachandran and Peter J. Liu and  Quoc V. Le 
07/29 本間
Online Distilling from Checkpoints for Neural Machine Translation [slides]
Hao-Ran Wei, Shujian Huang, Ran Wang, Xin-yu Dai, Jiajun Chen
07/29 The Emergence of Number and Syntax Units in LSTM Language Models [slides]
Yair Lakretz, German Kruszewski, Theo Desbordes, Dieuwke Hupkes, Stanislas Dehaene and Marco Baroni
08/01 山下
Curriculum Learning for Domain Adaptation in Neural Machine Translation [slides]
Xuan Zhang, Pamela Shapiro, Gaurav Kumar, Paul McNamee, Marine Carpuat, Kevin Duh
08/01 合田
Plain English Summarization of Contracts [slides]
Laura Manor and Junyi Jessy Li
08/01
平尾 Attention is not Explanation [slides]
Sarthak Jain, Byron C. Wallace
08/01
高橋(悠進) News Article Teaser Tweets and How to Generate Them
Sanjeev Kumar Karn, Mark Buckley, Ulli Waltinger and Hinrich Schutze

形式

  • 10枚程度のスライドを作成し、要点を説明する。1人の持ち時間は30分。
  • 発表に用いたスライドは Slideshare や Speakerdeck 等で公開する。

注意点

  • 各自その年のトレンドをざっと知るために全体のタイトルやアブストラクトを斜め読みすることも目的の一つなので、発表する論文が決まったら終わりだと思わず全体を眺める。
  • 一つの論文を紹介するためにその論文だけ読めばいい、ということは稀なので、関連する論文も読んで紹介する(特に、先行研究の手法を発展させたような手法の場合)。
  • long paper より short paper の方が分量が短く読みやすい印象を受けるかもしれないが、短くするために他の論文を参照して記述を省略していることがあるので、かえって読みにくい場合がある。
  • 論文の main contribution は何か、ということが分かるように説明する。(参考)高速で論文がバリバリ読める落合先生のフォーマットがいい感じだったのでメモ

参考

リンク集

過去の読み会

Comments