深層学習の基礎勉強会
概要
深層学習の基礎を身につけるために、「ディープラーニングを支える技術」を輪読します。
後半は週に一本ずつ論文を読んできてもらい、複数人で発表してもらいます。
勉強会の前までに各自で該当箇所の本文または論文を読んで来てください。
また、復習スライドを作ってもらい、発表してもらいます。
メンバー
TA
上田 直生也 (M1)
参加者
佐藤 郁子 (B4)
木山 朔 (B4)
榎本 大晟 (B4)
中島 京太郎 (B4)
段 文傑 (M1)
長井 慶成 (M1)
小林 正宗 (M1)
魏 厚静 (研究生)
スケジュール
2022/04/14(木)16:10 ~ 17:40 キックオフ、進め方の説明、1.1節 ~ 1.3節(p3 - p33)
2022/04/21(木)16:30 ~ 18:00 1.4節 ~ 2.2節(p34 - p52)
2022/04/28(木)16:30 ~ 18:00 2.3節 ~ 2.5節(p53 - p75)
2022/05/05(木)16:30 ~ 18:00 こどもの日
2022/05/12(木)16:30 ~ 18:00 2.6節(p76 - p97)
2022/05/19(木)16:30 ~ 18:00 2.6節 ~ 3.2節(p97 - p118)
2022/05/26(木)16:30 ~ 18:00 3.3節 ~ 3.5節(p119 - 140)
2022/06/02(木)16:30 ~ 18:00 3.6節(p141 - p159)
2022/06/09(木)16:30 ~ 18:00 3.6節 ~ 4.2節(p160 - p185)
2022/06/16(木)16:30 ~ 18:00 4.2節 ~ 4.4節(p185 - p206)
2022/06/23(木)16:30 ~ 18:00 4.4節 ~ 5.4節(p206 - p221 + p259 - p264)
2022/06/30(木)16:30 ~ 18:00 Neural Machine Translation by Jointly Learning to Align and Translate(読み会)
2022/07/07(木)16:30 ~ 18:00 Neural Machine Translation of Rare Words with Subword Units(読み会)
2022/07/14(木)16:30 ~ 18:00 Attention Is All You Need(読み会)
2022/07/21(木)16:30 ~ 18:00 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(読み会)
過去ログ
2022/04/14(木)16:10 ~ 17:40 キックオフ、進め方の説明、1.1節 ~ 1.3節(p3 - p33)2022/04/21(木)16:30 ~ 18:00 1.4節 ~ 2.2節(p34 - p52)2022/04/28(木)16:30 ~ 18:00 2.3節 ~ 2.5節(p53 - p75)2022/05/05(木)16:30 ~ 18:00 こどもの日2022/05/12(木)16:30 ~ 18:00 2.6節(p76 - p97)2022/05/19(木)16:30 ~ 18:00 2.6節 ~ 3.2節(p97 - p118)2022/05/26(木)16:30 ~ 18:00 3.3節 ~ 3.5節(p119 - 140)2022/06/02(木)16:30 ~ 18:00 3.6節(p141 - p159)2022/06/09(木)16:30 ~ 18:00 3.6節 ~ 4.2節(p160 - p185)2022/06/16(木)16:30 ~ 18:00 4.2節 ~ 4.4節(p185 - p206)2022/06/23(木)16:30 ~ 18:00 4.4節 ~ 5.4節(p206 - p221 + p259 - p264)2022/06/30(木)16:30 ~ 18:00Neural Machine Translation by Jointly Learning to Align and Translate(読み会)2022/07/07(木)16:30 ~ 18:00Neural Machine Translation of Rare Words with Subword Units(読み会)2022/07/14(木)16:30 ~ 18:00Attention Is All You Need(読み会)2022/07/21(木)16:30 ~ 18:00BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(読み会)