PyTorchによるディープラーニング入門
◎e-ラーニングで学べるディープラーニング!
◎PyTorchを利用してディープラーニングのプログラム作成方法を学びます。自分の問題をNNでモデル化しPyTorch を使って解決できるようになりましょう!
■動画の総視聴時間:約3時間
★この講座はLMS型のe-ラーニングです★
過去開催したセミナーの中から、ニーズの多い講座や人気の高い講座をe-ラーニング用にカスタマイズしたものです。
決められた順番に沿って、動画の視聴やテストを進めていきます。
<受講の流れについて>
受講開始日
当月15日までのお申し込みの場合:
当月25日から視聴開始
月末までのお申込みの場合:
翌月10日から視聴開始
※土日・祝日の場合は翌営業日扱いとなります
受講期間
4ヵ月間
※期間延長の場合、別途追加料金が発生します。受講料の項目をご確認ください。
(延長は1回限り、最長で6か月まで。終了前日までにお申し出ください。)
セミナー趣旨
本講座では PyTorchを利用してディープラーニングのプログラム作成方法を学びます。
ディープラーニングのプログラムとは結局何をやっているのかとそのプログラムの大枠を示します。目標はこの枠組み(構成要素)を理解することです。この枠組みを理解してPyTorch を利用すれば、サンプルプログラムを改良するにしても、自分で一からプログラムを構築するにしても、プログラムを構築することができると思います。
受講対象・レベル
ディープラーニングの枠組みを理解したい人やディープラーニングのプログラム作成方法を学びたい方が対象です。
習得できる知識
・ディープラーニングの枠組みを理解できます。
・ディープラーニングのプログラム作成方法が理解できます。
・PyTorch の使い方が理解できます。
・転移学習のやり方が学べます。
セミナープログラム
1.ニューラルネットワーク
まず人工知能の問題をニューラルネットを使って解く枠組みを説明します。人工知能の多くの問題は関数推定の問題と見なせます。関数推定では推定すべき関数をいくつかのパラメータを持った関数として表現し、入出力データからパラメータを推定することで行います。そしてニューラルネットもいくつかのパラメータを持った関数と見なせることを説明します。
・人工知能と関数推定
・パラメトリックモデル
・ニューラルネットは関数
・ニューラルネットのパラメータ
2.最急降下法と誤差逆伝搬法
ニューラルネットは訓練データから関数を推定する回帰のモデルです。その推定方法が最急降下法になります。ニューラルネットの関数のモデルはネットワークなので、この最急降下法がいわゆる誤差逆伝播法と呼ばれるものであることを示します。
・ニューラルネットにおける学習
・目的関数
・最急降下法
3.Define-by-run と自動微分
Deep Learning の学習も関数を推定する回帰の問題であり、最急降下法が使われます。最急降下法では勾配を求める部分がポイントです。勾配を求めるために計算グラフが利用されます。この計算グラフを動的に構築する仕組みが Define-by-run です。PyTorch は Define-by-run を採用しているために、学習モデルを構築するのが容易になっています。PyTorch の自動微分を使って、この点を確認してみます。
・合成関数と計算グラフ
・計算グラフを利用した勾配計算
・自動微分
4.Numpy と Tensor
ディープラーニングで扱うデータは配列です。Python では配列の演算に numpy を利用しますが、PyTorch では tensor を利用します。ここでは tensor データの作り方や、tensor に関する演算や関数を示します。また numpy との相互の変換が重要です。
・tensor と numpy
・tensor の作成
・tensor どうしの演算
・tensor を扱う関数
・tensor と自動微分
5.PyTorch の学習プログラムの基本手順
PyTorch における学習プログラムの基本構成要素は、モデルの設定、最適化関数の設定、誤差の算出、勾配の算出、パラメータの更新からなります。最後の3つを繰り返すことでパラメータが推定され、モデルが完成します。ここでは最初にプログラム全体のひな形を示し、簡単な問題を通して、各手順を解説します。
・プログラム全体のひな形
・モデルの設定
・最適化関数の設定
・誤差の算出
・勾配の算出
・パラメータの更新
6.多層のニューラルネットワーク
NN を多層にするテクニックの一つに dropout があります。ここでは dropout を解説し、それを利用して画像認識のための NN を構築してみます。データとして PyTorch 用に準備されているデータセットの使い方も説明します。
・データセットの利用
・3層の NN
・dropout
・4層の NN
7.畳み込みニューラルネットワーク
物体認識の精度を飛躍的に向上させた畳み込みニューラルネットワーク(CNN)の仕組みを解説し、PyTorch による実装例を示します。
・フィルター
・Padding
・CNN
8.既存モデルの利用
様々なタスクに対して PyTorch で学習済みの様々なモデルがあります。ここではそれらモデルを利用する例を示します。
・物体認識の既存のモデル
・画像の前処理
9.転移学習
転移学習とはあるタスクに対して学習できたモデルを別種のタスクに転用する学習手法です。転移学習の標準手法として fine-tuning があります。PyTorch は fine-tuning が容易という特徴があります。ここでは画像認識の既存モデルを、別種の画像を認識するためのモデルに修正する転移学習を fine-tuning によって行ってみます。
・代表的な転移学習手法
・PyTorchによる転移学習
・Fine-Tuning
10.参考文献
セミナー講師
茨城大学 工学部情報工学科 教授 新納 浩幸 先生
1987年 東京工業大学大学院理工学研究科情報科学専攻修士課程修了。
同年 富士ゼロックス、翌年松下電器を経て、1993年茨城大学工学部助手。
2015年 同学部教授。現在に至る。
【ご専門】
自然言語処理、機械学習、統計学
【主な著書】
『 Chainer v2 による実践深層学習 』 オーム社
『 ニューラルネットワーク自作入門 (翻訳)』 マイナビ出版
『 Rで学ぶクラスタ解析 』 オーム社
『 数理統計学の基礎 』 森北出版
セミナー受講料
1社1~9名でのお申込み : 1名あたり 27,500円(税込、資料付)
1社10名以上でのお申込み : 1名あたり 22,000円(税込、資料付)
1社30名以上でのお申込み : 1名あたり 16,500円(税込、資料付)
*学校法人割引;学生、教員のご参加は受講料50%割引。
*13名以上お申込みの場合は、申込みフォームの備考に追加受講者をご記入ください。
*受講者とは別に管理者を立てたい場合は、申込時に備考欄にてお申し出ください。
●管理者を設定する場合:4,400円(税込)
*管理者ご自身が受講する場合、別途受講料がかかります。
●期間延長の場合:1ヶ月あたり4,400円(税込)
受講にあたっての留意点
※受講期間終了後はIDを削除致しますので予めご了承ください。
①受講開始日までに受講に必要なID、パスワードとURLをメールにてご連絡します。
【ご注意】
本講座で使用される資料は著作物であり、複写・転載・配布・販売を禁止致します。また、一つのIDにつき使用できるのは1名であり、一つのIDを複数名で使用することを禁止致します。
②必ず以下のURLより動作確認をしてからお申込みください。
情報機構 動作確認ページへ→
サンプルページ内の動画の視聴とテストの回答をお試しいただき、正常に動作するか各自にてご確認ください。動作環境以外のPCで受講すると、正常に受講できない可能性がございます。 動作確認やシステム設定に関するサポートは弊社では行っておりませんので、PC設定等のお問い合わせはご遠慮ください。
③受講の流れ
・講座開始日から、コンテンツの動画またはPDFを視聴・閲覧できます。
・Chapterの順番に沿って視聴・閲覧をしてください。前のChapterを終了せずに、次のChapterへは進めません。
・確認テストは、Chapter内の動画は最後まで視聴、PDFは閲覧しないとテストへ進めません。
なお、回答について講師による添削はありません。
・全てのChapterを終了し、最終テストで一定の基準を上回った方には、修了証(画面上で表示)を発行致します。