Tensor Flowの用語メモ

関数メモ

  • matmul

         行列の掛け算を行う関数

  • train.reshape

         Array変数を行列の形を並び替えた形にする。

 

 

 

  •  tranin.AdamOptimizer().minmize(loss)

   Tensorflowが提供するトレーニングアルゴリズムの1つです。与えられたトレーニングセットから誤差を計算して、その勾配ベクトルの反対方向にパラメータを修正するという処理を実施するものですが、学習率ε(イプシロン)に相当するパラメータを自動的に調整する仕組みを持っている。比較的に性能がよく、学習率を手動で調整する必要がないために、ディープラーニングでよく利用されるアルゴリズムである。その後のMinmize(loss)というメソッドでは、先に定義したLossを誤差関数として、これを最小化するように指示を出している。

 

(かくりつてきこうばいこうかほう、: stochastic gradient descent, SGD)とは、連続最適化問題に対する勾配法乱択アルゴリズム。目的関数が、微分可能な和の形である事が必要。バッチ学習である最急降下法をオンライン学習に改良した物。

 

enumerate関数でインデックスつきループを行う

ループ処理を行うときにenumerate()を使うと、要素のインデックスと要素の両方を同時に取得できます。

>>> for i, v in enumerate(['tic', 'tac', 'toe']):
...     print i, v
...
0 tic
1 tac
2 to