Tensor Flowの用語メモ
関数メモ
- matmul
行列の掛け算を行う関数
- train.reshape
Array変数を行列の形を並び替えた形にする。
- tranin.AdamOptimizer().minmize(loss)
Tensorflowが提供するトレーニングアルゴリズムの1つです。与えられたトレーニングセットから誤差を計算して、その勾配ベクトルの反対方向にパラメータを修正するという処理を実施するものですが、学習率ε(イプシロン)に相当するパラメータを自動的に調整する仕組みを持っている。比較的に性能がよく、学習率を手動で調整する必要がないために、ディープラーニングでよく利用されるアルゴリズムである。その後のMinmize(loss)というメソッドでは、先に定義したLossを誤差関数として、これを最小化するように指示を出している。
(かくりつてきこうばいこうかほう、英: stochastic gradient descent, SGD)とは、連続最適化問題に対する勾配法の乱択アルゴリズム。目的関数が、微分可能な和の形である事が必要。バッチ学習である最急降下法をオンライン学習に改良した物。
enumerate関数でインデックスつきループを行う
ループ処理を行うときにenumerate()を使うと、要素のインデックスと要素の両方を同時に取得できます。
>>> for i, v in enumerate(['tic', 'tac', 'toe']):
... print i, v
...
0 tic
1 tac
2 to