深層学習の基礎勉強会


概要

深層学習の基礎を身につけるために、「深層学習による自然言語処理」を輪読します。

勉強会の前までに各自で本文を読んで来てください。
勉強会では適当に指名して本文を読んでもらい、必要に応じて解説もしてもらいます。

メンバー

TA

  • 山下

    参加者

    • 相田
    • 蘆田
    • 喜友名
    • 小山
    • 今藤
    • 田村
    スケジュール

    開催コマは、毎週火曜日の16:20〜です。

    • 2020-05-19 #1   キックオフ、第1章 自然言語処理のアプローチ
    • 2020-05-26 #2   (張) 第2章 ニューラルネットの基礎 ①(2.1.教師あり学習、2.2.順伝播型ニューラルネット、2.3.活性化関数、2.4.勾配法、2.5.誤差逆伝播法)
    • 2020-06-02 #3     (2.1~2.3:喜友名, 2.4,2.5:金) 第2章 ニューラルネットの基礎 ②(2.6.再帰ニューラルネット、2.7.ゲート付き再帰ニューラルネット、2.8.木構造再帰ニューラルネット、2.9.畳み込みニューラルネット
    • 2020-06-09 #4   (2.6,2.7:今藤, 2.8,2.9:小山) 第3章 言語処理における深層学習の基礎 ①(3.1.準備、3.2.言語モデル)
    • 2020-06-16 #5   (相田) 第3章 言語処理における深層学習の基礎 ②(3.3.分散表現)
    • 2020-06-23 #6   (田村) 第3章 言語処理における深層学習の基礎 ③(3.4.系列変換モデル)
    • 2020-06-30 #7   (蘆田) 第4章 言語処理特有の深層学習の発展 ①(4.1.注意機構、4.2.記憶ネットワーク)
    • 2020-07-07 #8     (張) 第4章 言語処理特有の深層学習の発展 (4.3.出力層の高速化)、第5章 応用 ①(5.1.機械翻訳)
    • 2020-07-14 #9   (4.3:喜友名, 5.1:金) 第5章 応用 ②(5.2.文書要約)
    • 2020-07-21 #10   (今藤) 第5章 応用 ③(5.3.対話、5.4.質問応答)
    • 2020-07-28 #11   (小山) 第6章 汎化性能を向上させる技術 ①(6.1.汎化誤差の分解、6.2.推定誤差低減に効く手法)
    • 2020-08-04 #12 (相田) 第6章 汎化性能を向上させる技術 ②(6.3.最適化誤差低減に効く手法、6.4.超パラメータ選択)、第7章 実装 ①(7.1.GPUとGPGPU、7.2.RNNにおけるミニバッチ化)
    • 2020-08-11 #13 (6.3,6.4:田村, 7.1,7.2:蘆田) 第7章 実装 ②(7.3.無作為抽出、7.4.メモリ使用量の削減、7.5.誤差逆伝播法の実装)、第8章 おわりに

    過去ログ

    • 2020-05-19 16:20-17:30 #1   キックオフ、第1章 自然言語処理のアプローチ
    • 2020-05-26 16:20-17:45 #2   (張) 第2章 ニューラルネットの基礎 ①(2.1.教師あり学習、2.2.順伝播型ニューラルネット、2.3.活性化関数、2.4.勾配法、2.5.誤差逆伝播法)
    • 2020-06-02 16:20-17:37 #3   (2.1~2.3:喜友名, 2.4,2.5:金) 第2章 ニューラルネットの基礎 ②(2.6.再帰ニューラルネット、2.7.ゲート付き再帰ニューラルネット、2.8.木構造再帰ニューラルネット、2.9.畳み込みニューラルネット
    • 2020-06-09 16:20-17:32 #4   (2.6,2.7:今藤, 2.8,2.9:小山) 第3章 言語処理における深層学習の基礎 ①(3.1.準備、3.2.言語モデル)
    • 2020-06-16 16:20-17:36 #5   (相田) 第3章 言語処理における深層学習の基礎 ②(3.3.分散表現)
    • 2020-06-23 16:20-17:29 #6   (田村) 第3章 言語処理における深層学習の基礎 ③(3.4.系列変換モデル)
    • 2020-06-30 16:20-17:22 #7   (蘆田) 第4章 言語処理特有の深層学習の発展 ①(4.1.注意機構、4.2.記憶ネットワーク)
    • 2020-07-07 16:20-17:42 #8   (張) 第4章 言語処理特有の深層学習の発展 (4.3.出力層の高速化)、第5章 応用 ①(5.1.機械翻訳)
    サブページ (2): 2018 2019
    Comments