PyTorchの最適化関数の使い方を解説!サンプルプログラムを紹介
PythonのPyTorchで、ディープラーニングを行う際に必要な最適化関数の使い方を解説してみました。最適化関数のサンプルプログラムも紹介しているのでPyTorchのディープラーニングの基本を学習することができます。
PyTorchの最適化関数について
今回は損失関数に引き続きディープラーニングでは必ず使用する最適化関数を押さえましょう。
目次
01. 最適化関数とは
02. PyTorchの最適化関数の使い方
03. まとめ
01. 最適化関数とは
最適化関数とはニューラルネットワークのパラメータを最適なものにするための関数です。
というのも損失関数が最小になるようなパラメータを選択すれば理論上最適解ではあります。
しかし、その組み合わせは膨大でとても手探りでは不可能です。
そこで最適化関数を使用して最適化アルゴリズムによって最適解を見つけようというものです。
こうすることで予測の精度が上昇します。
最適化関数ではニューラルネットワークのパラメータで損失関数を微分した時の値がゼロになるようにパラメータを決定する作業を行います。
最適化関数のアルゴリズムを勾配降下法といいます。
このような処理を繰り返すことで損失を最小化します。
Adamを使います。
パラメータとは数学で2つ以上の変数間の関数関係を間接的に用いる補助の変数
プログラミング的にはソフトウェアやシステムの挙動に影響を与える外部から投入されるデータ
02. PyTorchの最適化関数の使い方
Adamを利用する方法
Adamを利用することで最適化を比較的簡単に行うことができます。
04. まとめ
今回は最適化関数の使い方を学びました。
ざっくりとしたイメージができていればいいと思います。
お疲れ様でした。
PyTorchプログラミング入門を利用しながら実際に今回もやってみました。
まずは基本を押さえます。