本講座は主にエンジニアの方に向けた深層学習の入門教材です。 本教材では、Deep LearningのフレームワークTensorflowの高レベルAPIであるKerasを用いています。
ご利用に際しては、利用規約ご確認の上、遵守していただきますようお願いいたします。
本講座は全7Lessonの演習マテリアルからなっています。各Lessonは次のような構成になっています。
- Lesson 0: 機械学習・Deep Learningのキソ
- 機械学習概観
- Lesson 1: 手書き文字認識をしよう
- Keras入門、MNIST、MLP、前処理、勾配に関するテクニック、過学習に関する手法、Fashion MNIST
- Lesson 2: 畳み込みニューラルネットワーク
- CNN基礎、Data Augmentation、画像データの正規化、Batch Normalization、Skip Connection
- Lesson 3: 系列データで予測させてみよう
- RNN、BPTT、Gradient Clipping、LSTM、GRU
- Lesson 4: ニューラル翻訳モデルをつくってみよう
- 言語モデル、分散表現、Seq2Seq、Keras Functional API、Attention
- Lesson 5: 画像からキャプションを生成してみよう
- MSCOCO、学習済みモデルの利用、キャプション生成、Attention
- Lesson 6: ニューラルネットに画像を生成させよう
- 生成モデル入門、GAN、Conditional GAN、VAE
- Lesson 7: ニューラルネットでゲームを攻略するAIをつくろう
- 強化学習入門、Q学習、DQN、OpenAI Gym、Double DQN、Dueling Network
各LessonにはそのLessonで学ぶトピックの説明及びPythonでの実装がJupyter Notebook形式でまとめられています。 各Lessonは4つのSectionから構成されており、
- Section 1: そのLessonで学ぶトピックの概要
- Section 2: Section 1の実装
- Section 3: 精度を向上させるための発展的テクニック
- Section 4: Section 3の実装
という構成になっています。Section 1、3の最後にはそのSectionで学んだことの確認問題があるので解いてみてください。正解はその次のSection 2、4の頭に書いてあります。またLesson 0のみ実装部分はありません。各Lessonはそれ以前のLessonの知識を前提としているので、Lesson 0から順にすすめてください。
今回、オンライン公開講座DL4USの教材公開にあたり、次の点を変更しています。
- オンライン講座では、コードがすべて書かれているnotebookの他に、学習効果を高めるため、同一の内容でコードがすべて空白のnotebookも用意していましたが、本公開教材では前者のみを公開しています。ですので、各Lessonのnotebookは、上から順に実行していくことで一通りの処理の流れを確認できます。
- 各Lessonの最後の宿題を削除しました。
- オンライン講座では実行環境としてiLectを提供していましたが、今回は教材公開のみです(以下のインストール方法を参考に、各自で準備してください)。
オンライン講座での環境と同じパッケージをインストールする場合は、以下のコマンドを実行してください。
$ pip install -r requirements.txt
ただし、こちらのインストール方法は必ずしもお使いの環境での動作をサポートするものではないので、注意してください。
また、本教材はGoogle Colaboratoryでも実行することができます。ただし、各LessonでColabにないパッケージを利用することがあるので、その場合は最初に該当パッケージをインストールしてください。その他、Google Colaboratoryでの実行上の諸注意 もご覧ください。
演習ではご自身でダウンロードしたファイルをnotebookから参照する箇所があります。ここでは、Google Colaboratoryのnotebook上からGoogle Driveのファイルを参照する方法を説明します。
例えば、Lesson3のsection2では以下のようにファイルを参照する箇所がありますが、このままではGoogle Driveにファイルをアップロードしてもアクセスはできません。
(No Such File or Directory
のエラーになります。)
dataset, meta = arff.loadarff('ECG5000.arff')
そこで、以下の手順でGoogle Driveをマウントし、作業領域に対象ファイルをダウンロードします。 以下をnotebook上で実行して下さい。
まず、以下を実行してGoogle Driveをマウントします。
from google.colab import drive
drive.mount('/content/gdrive')
実行するとURLとフォームが出力されるので、URLを踏んでログインし、認証コードを取得して下さい。それをnotebook上のフォームに入力します。
次にダウンロードコマンドを使えるようにします。 以下を実行して下さい。
!pip install -U -q PyDrive
from pydrive.auth import GoogleAuth
from pydrive.drive import GoogleDrive
from google.colab import auth
from oauth2client.client import GoogleCredentials
# check authority
auth.authenticate_user()
gauth = GoogleAuth()
gauth.credentials = GoogleCredentials.get_application_default()
drive = GoogleDrive(gauth)
これも先程と同様にURLとフォームが出力されるので、認証コードを取得し、フォームに入力して下さい。
あとは以下を実行することで作業領域にファイルをダウンロードできます。
# hogeはファイルのid
downloaded = drive.CreateFile({'id':hoge})
# Download the file to a local disk
downloaded.GetContentFile('ECG5000.arff')
ここまでできれば、以下の読み込みを行うことができるようになります。
dataset, meta = arff.loadarff('ECG5000.arff')
Google Colaboratoryでは一定時間経過するとインスタンスがリセットされます。具体的にはnotebookのセッションが切れてから90分経過または新しいインスタンスを起動してから12時間経過でインスタンスがリセットされるようです。参考: Google Colaboratoryの90分セッション切れ対策【自動接続】
講座ではiLect環境を前提にしており、Lessonによっては長時間の学習が必要になるものもあります。Google Colaboratoryでの学習には制限があることは予めご了承ください。ただし、学習回数を小さくして試すなど工夫することで学習を進めることは可能です。
学習を行うときに使用するデータはご自身のGoogle Driveにアップロードすることになりますが、使用するデータには大きな容量を必要するものもあります。アップロードの前にGoogle Driveの容量を確認して問題ないか確認してください。例えば、Lesson5のSection1では13GBのzipファイルを扱うので注意が必要です。
- 本コンテンツは個人で学習する目的のみで利用可能です。
- 講習会・教室での利用や企業内での講習など、商用での利用は認められていません。
- 本コンテンツには、クリエイティブコモンズのライセンス「CC-BY-NC-ND(表示 - 改変 - 非営利 一般)」が適用されます。
- 本コンテンツに関する一切については、東京大学(松尾研究室)までお問い合わせください。本コンテンツを用いた講義・講習会を実施されたい場合は、個別に許諾を得ていただく必要があります。
- 著作権は東京大学に帰属します。
- 免責事項を確認してください。
プロジェクトページ:http://dl4us.com/
コンテンツ公開ページ:https://weblab.t.u-tokyo.ac.jp/dl4us/