14. AI技術 機械学習(Deep Learning)入門
Photo by
Alina Grubnyak
on Unsplash
人工知能(Artificial Intelligence: AI) 技術
人工知能というのは情報技術の長年の夢の技術であり,これまで長い歴史がある. 昨今は Deep Learning に代表される機械学習がたいへんに注目を集めているが,他にも多くの要素技術があり,それぞれに得手不得手がある. これらについて,AIに関する機械学習とその他の要素技術について今回から学んでいこう.
Deep Learning (深層学習)入門
今回はまずは近年たいへんに発達し注目されている機械学習技術の一つである Deep Learning について,その本質を簡単に学ぼう. 流行っていることもあって機械学習のライブラリ・フレームワークは多く存在するが,今回はそうしたものを使わずに自分でプログラムして内容を理解する一助としよう.
この Deep Learning というのは,多層の neural network (NN と略されることも多い) を数学的にモデリングして利用するもので, この層の数が多くても内部パラメータを問題なくチューンできることから名前に deep がつくものである. この技術によって画像分類問題で大変画期的な結果が出て以来,大変 hot な分野であることは間違いない.
しかし,その開発が大変勢いある分野であるため,細かい技術論にまどわされて「全体がよくわからない」という者も多いだろう. 先に書いたように,今回は基本的な考え方を理解できるよう,解説と素のプログラミングを重視してすすめよう.
全体像
全体像を示そう. まず,機械学習でやりたいことは何かというと,
やりたいこと = 入力を与えると良い答を返す関数を作ること
なのだ. これがうまくできれば,われわれが知能を使って行っている作業のうち多くをコンピュータに代わりにさせることができる,というわけだ1.
そして,機械学習の様々な技術は,この「関数を作り,改善すること」を如何に上手にやるか,という技術なのだ.
今回扱う deep learning では,関数を neural network で作り,そのパラメータを改善していく技術だ. シンプルな仕組みながらこれが大変うまくいく問題が多く,そのために期待されているのだ.
Neural Network
ニューロン(神経細胞)の構造図, license:public domain, created by LadyofHats
Neural Network とは,上の図のような神経細胞(ニューロン)によって構成された神経網を真似たシンプルな数学モデルだ.
もとの神経網の仕組みをおおまかにいうと,まず,ニューロンの電気信号が軸索を通じてそのニューロン末端のシナプスに届き,その結合を介して信号を他のニューロンに伝えるようになっている. ニューロンはそのようにして複数のニューロンからやってきた信号を受け取るわけだが,集まった信号が一定以上の大きさであれば「反応(興奮や発火と呼ばれる)」して新たに電気信号を作り,他のニューロンへ信号を伝える. あとはこの繰り返し,という仕組みで,この「網の形」と「シナプス結合の強さ」等々によって情報処理がうまくいくようになっている,と考えられている.
これをモデル化して,いわゆる有向グラフの「ノード」をニューロンの信号受信&処理部分とすると次の図のような感じだ.
少し解説しよう.
- 信号を送ってくるノード $i$ からの信号をノード $k$ がどれだけ受け入れるかは調整パラメータである 重み係数 $C_{ik}$ として表され,
- ノード $k$ の発火のしやすさは調整パラメータである バイアス $b_k$ で表される.
- 入力信号が多いと出力信号が作られる「発火」という現象は,入力の合計を $r$ として非線形関数 $\phi(r)$ で表される.
この関数のことを 活性化関数 (activation function)と呼んだりする.
活性化関数にはいくつか提案されているものが有り,典型的なのは次のようなものだ.
活性化関数を変えると NN の挙動が結構変わるので,実際に NN を使う場合はいくつか試してみると良い.
- 活性化関数の例
名前 関数 グラフ シグモイド関数(sigmoid) $\displaystyle \sigma(r) = \frac{1}{ 1 + e^{-r} }$ tanh 関数 $\displaystyle \tanh(r) = \frac{ e^r - e^{-r} }{ e^r + e^{-r}}$ 正規化線形関数(ReLU) $\mbox{ReLU}(r) = \max(0,r)$
そしてこのノードを集めて層を作り,その層を繋げたものが neural network だ.イメージは次のような感じになる.
図: neural network 全体のイメージ
そして,入力に対して出てくる出力が望ましいものになるべく近づくよう,パラメータ $C,b$ を調整していく(これが学習),ということを繰り返すことでこの neural network を望ましいものへと改善していくのだ.
この調整,つまり学習をどう行うかだが,これは最小化問題という文脈の問題を解決する技術が使える. すぐ後で解説するのでそこまで待とう.
今回の最初のターゲット
機械学習の重要な本質の一つは「明示的なアルゴリズムではどうやって解決方法を実現したら良いかわからない問題」に解決方法を与えるところにある. しかしまあ,今回は最初の入門問題として,大変簡単な問題を「解決できないふりをして」取り組むことにしよう.
今回扱う問題は, $x \in [0,1]$ に対して実際は
$g(x) = \left\{\begin{array}{rcl} 1 & : & 1 / 3 < x < 2 / 3, \cr 0 & : & \mbox{ otherwise } \end{array}\right.$
である関数を,その関数形を知らない状態で データ $\{ x_k, g(x_k) \}_{k = 1}^{N_d}$ だけをもらってその情報から近似関数を作ろう,という問題としよう. もちろん,この問題は通常は「補間」技術を用いたほうが筋も結果も計算時間も良いのだが,今回は敢えて機械学習の練習問題としてこれを扱おう.
用意する neural netowrk
スカラー実数 $x$ を入力とし出力はスカラー実数であるような,大変単純な NN を今回は考えよう.
まず,NN の構造を説明しよう.
NN は結構多めの「層」をつなげて,そこに現れる多数のパラメータを「学習」によってチューンすることで所望の出力を得られるようにしよう,という関数だ.
その層だが,典型的には一層ずつは以下のような形をしている.
そして今回の問題では,こうしたパラメータをもつ層が 3つであるような NN を考えよう. 大雑把には下図のような設計になる.
より具体的には, 入力を $x$, 出力を $y$, 中間層(ベクトル, 要素数 $n$)の出力をそれぞれ $\boldsymbol{r}^{(1)}$, $\boldsymbol{r}^{(2)}$ として, 密結合係数として $n$ 次元ベクトル $\boldsymbol{C}_1, \boldsymbol{C}_3$ と $n \times n$ 行列 $C_2$, バイアスとして $n$ 次元ベクトル $\boldsymbol{b}_1$, $\boldsymbol{b}_2$, スカラー $b_3$ を用意して,NN が
$\left\{\begin{array}{rcl} \boldsymbol{r}^{(1)} & = & \mbox{ ReLU }( x \boldsymbol{C}_1 + \boldsymbol{b}_1), \cr \boldsymbol{r}^{(2)} & = & \mbox{ ReLU }( C_2 \boldsymbol{r}^{(1)} + \boldsymbol{b}_2), \cr \mbox{ 出力 } y & = & \boldsymbol{C}_3 \cdot \boldsymbol{r}^{(2)} + b_3 . \end{array}\right.$
となっているケース(ほぼ最小限セットだな)を考える. $n$ はそうだなあ,たぶん 5 ~ 10 ぐらいでうまくいくだろう(かなり無駄が多いけどな).
さて,関数としてこの全体を NN という名前で呼ぶことにしよう. つまり,$\mbox{output } y = \mbox{NN}( H, \mbox{ input } x)$ という感じだ.
ただし $H$ はこの NN のパラメータ $C_1 \cdots C_3$, $b_1 \cdots b_3$ を適当に一つにまとめたデータだ. 今回は,たとえば下図のようにまとめればよいだろう.
このようにパラメータを一つの量としてまとめておくことで,これらのパラメータを同時に更新して NN を「改善」する手法が使いやすくなる.
具体的には,プログラム中で gradient
を利用「できる」ことがその恩恵にあたる.
NN をどう使うの?
使い方は簡単だ.
まず,既知のデータから一つ適当な $x_k$ を関数 NN に入れると値が出てくるので,これとデータに入っている $g(x_k)$ (教師情報. 出力の正解のこと)を比べて誤差 $f(H, x_k)$ を計算する. 今回の場合,$x_k$ も $g(x_k)$ もスカラーなので,誤差関数 $f$ もスカラーで正なものとして定義しておくと良いだろう.
そして,この誤差 $f(H, x_k)$ が小さくなるように NN のパラメータ $H = ($ $\boldsymbol{C}_1$, $\boldsymbol{b}_1$, $C_2$, $\boldsymbol{b}_2$, $\boldsymbol{C}_3$, $b_3$ $)$を修正するのだ!
どうやって? と思うかもしれないが,これは「最小化問題」という情報系の古典的な問題で,いろんな技術が開発されている. 今回は一番シンプルな勾配法
$\left\{\begin{array}{rcl} H_{ \mbox{new}} & = & H + \Delta H, \cr \Delta H & = & - \gamma \, \mbox{ grad}_H \, f(H) . \end{array}\right.$
に沿ってパラメータ $H$ を改善していく手法でいこう.
深層学習の発展: 何層もあるような neural network で作った関数 $f$ に対して $\mbox{ grad}_H \, f(H)$ をどうやって計算したら良いのか? という問題には,back propagation と呼ばれる技術が「再発見」されたことである意味解決した. ちなみにこの back propagation は自動微分2と呼ばれる技術の一部で応用数学では広く知られたものなので,情報系研究者の勉強不足と指摘されてもしかたない. ただし,これだけでは「10層以上の深い層を持つ neural network」の改善がうまくいかず,しばらくこの分野の研究は停滞した.その後,特別な構造のneural network を作ったり ReLU 活性化関数を使うなどの工夫を重ねることで改善がなされて再びこの分野が脚光を浴び,現状に至っている.
さて話を戻そう. この式中の係数 $\gamma > 0$ であるが,これは学習係数と呼ばれるパラメータに対応していて,スカラー関数 $f$ に対して数値計算的には
\[ \gamma = \frac{f(H)}{ \left\| \mbox{grad}_H f(H) \right\|^2 } \]
という感じに計算すると妥当な感じだ3. ただし,この計算式をそのまま使うと $\mbox{grad}_H f(H) \cong \boldsymbol{0}$ の時に不安定になるので, $\mbox{grad}_H f(H)$ がある程度小さい時はこの $\gamma$ を適当な数字に決めてしまうなどの対応をしておくと良い.
そしてこの修正プロセスを,データの個数だけ繰り返せば良いんじゃね? というのが今回の全体の大雑把な NN の使い方だ.
これでうまくいくのかって? まあ,まずはやってみるのが一番だ.
実際にやってみる
あとは少しずつプログラムを作っていくだけだ.
まず,今回 gradient
を使いたいので,その機能が入っているパッケージ ForwardDiff
をインストールしておこう.
|
|
次に、パッケージの利用宣言と,問題のパラメータを設定してしまおう.
|
|
次に、対象関数を教師情報の代わりに作ってしまおう.
|
|
プロットして確認しておこう.
|
|
次に,NN を作ってしまおう.gradient を計算するライブラリの都合を考慮して,(データに多少無駄が入るが)次のような感じになる.
|
|
誤差の計算は,単なる(スカラー値の)差の二乗にしておこう.
|
|
さてそろそろ計算そのものの準備に入ろう.まずは,肝心のパラメータ群の初期値を乱数で適当に生成する.
|
|
10×15 Matrix{Float64}:
0.324676 -0.317048 -0.383325 … -0.192679 0.251531 -0.355099
0.356019 -0.24486 0.183784 -0.288493 -0.318379 -0.357167
…
-0.280295 0.465438 -0.266818 0.128114 0.0609274 -0.358294
-0.375012 0.481077 -0.357738 0.290997 0.249286 -0.0404348
このパラメータで関数 NN はどうなっているかをプロットして見ておこう.
|
|
乱数で作っているので当たり前だけど,ターゲット関数とはまるで異なるよな.
では,肝心の計算だ! かなり簡単だぞ.
|
|
Progress: 100%|███████████████████████████████| Time: 0:01:20
教師データとして関数 predict を使っているのは「ズル」と言えばずるいので,真面目にやるならデータを作っておこうw
さて, 学習がうまくいったのかどうか,学習して作り出した近似関数をグラフでチェックしよう.
|
|
おお! なんかうまくいったことがわかる. なんにも考えないでループを回せばうまくいくんだから,機械学習というのは確かに「良い」方法と言えるのでは,と思うのも無理のないところだ4.
ちなみに,修正後のパラメータ群の数字を以下のようにして見てみると,
|
|
10×15 Matrix{Float64}:
3.2782 -2.10464 -0.400671 -0.386785 … 0.00958044 0.000831323
-0.0298654 -0.0267683 -0.808059 -0.0653339 0.894813 -0.151152
-1.16015 0.406917 0.956639 -0.359122 -0.00108768 -0.259304
-0.203468 0.0711579 0.397862 -0.242374 0.35942 0.0896417
0.229885 -0.354939 0.268831 -0.226491 -0.308383 -0.35167
0.209952 -0.314071 0.595492 -0.262543 … 0.635284 0.0683405
-0.480897 -0.253232 0.0360848 0.0496048 -0.129339 0.410387
-0.0486835 -0.303086 -2.59438 0.420436 2.81208 -0.322807
-0.168708 -0.293341 -0.0640921 0.416565 0.0905584 -0.177777
-3.47757 1.21767 0.681591 -0.480172 -0.552944 -0.0488756
という感じだ. よーく見ると,たとえば $\boldsymbol{C}_1$ (上の第1列相当), $\boldsymbol{b}_1$ (上の第2列相当) は第 1, 3, 10 成分が比較的大きいので,その 3つの成分で最初の中間層の出力 $\boldsymbol{r}^{(1)}$ の性質がおおよそ見えるのではないか,などということが考察される.そのあたりを追いかけてみるのも面白いだろう.
もっと現実的な問題に適用してみよう!
この
画像ファイル
は
クリエイティブ・コモンズ 表示-継承 3.0 非移植ライセンス
のもとに利用を許諾されています。
例えば,がく片の長さと幅,花びらの長さと幅という 4つの数字と「その花の種類(3種類: ヒオウギアヤメ, ブルーフラッグ, バージニカ)」をデータ化した
UCI のアヤメのデータ
をもとに,その4つの数字だけから花の種類を当てる問題を考えよう.
このデータだけではなく,
UCI の Machine Learning Repository
には機械学習に使えそうな多くの「データ」があるので見てみると良いだろう.
ちなみにこのアヤメのデータは現時点だと「最も人気のある」ものだね.
上のアヤメのデータだが,直接自分でファイルをダウンロードしてそのファイルを読み込む形で Julia に入力してもよいが,これは有名なデータなので
RDatasets
や MLDatasets
5といったいろいろなパッケージがこのデータを自動でダウンロードしてくれる.
今回は下記に示すように, MLDatasets
パッケージをインストールしてそこから読み込もう.
なお,データの使い方等は MLDatasets.jl を見ると,このアヤメ(iris)のデータをどう使えばよいかが書いてある.
まず,MLDatasets
パッケージをインストールしていない人はインストールしよう.
|
|
それから,「表で表されるような」データを管理するのに適したパッケージ DataFrames
と
機械学習フレームワークである Flux
パッケージもインストールしよう.
この中にある機能や関数をいくつか使うのだ.
|
|
次に,使いそうなパッケージの利用宣言だ.
|
|
そして,アヤメのデータを読み込もう.
|
|
dataset Iris:
metadata => Dict{String, Any} with 4 entries
features => 4×150 Matrix{Float64}
targets => 1×150 Matrix{InlineStrings.String15}
dataframe => nothing
|
|
150×1 Matrix{InlineStrings.String15}:
"Iris-setosa"
"Iris-setosa"
"Iris-setosa"
…略…
2次元配列 features_raw
の i列目に i番目の花の 4つの数字データが入り,1次元配列 labels_raw[i]
にそのアヤメの種類が入るという格好だ.
ちなみに,150個あるデータのうち,最初の50個が "iris setona"(ヒオウギアヤメ)のもので, 次の50個が "iris versicolor"(ブルーフラッグ アヤメ), 最後の50個が "iris virginica"(バージニカ アヤメ)のものである.
データの軽い事前チェック
とりあえずこれらのデータで花の種類を分類できそうかどうか,次のようにしてちょっとグラフで見てみよう. ただし,われわれは3次元グラフまでしか理解できないので,とりあえず 3つの数字(がくの長さ,幅,花びらの長さ)でプロットしてみる.
まず,面倒だが,データを花の種類ごとに分けてみる.
|
|
そしてこれを以下のようにプロットしてみよう.
|
|
ふむ,目で見ても結構別れているので,NN に学習させてもうまくいくと期待して良さそうな気がするね.
話を戻そう
アヤメの種類が文字列のままだと使いにくいので,次の形に変換しておこう.
|
|
150-element Vector{Vector{Float64}}:
[1.0, 0.0, 0.0]
[1.0, 0.0, 0.0]
[1.0, 0.0, 0.0]
⋮
[0.0, 0.0, 1.0]
[0.0, 0.0, 1.0]
[0.0, 0.0, 1.0]
なぜこんな形で分類結果を表記するのかは,NN の出力と合わせるためだ.あとでわかってくるだろうからこの時点ではあまり気にしなくて良い.
さて次に,このデータのうち一部を「学習後の NN の能力チェック用」に分離してとっておき,それには NN の学習が済むまで参照しないようにしよう. 全部でたった 150個しかデータがないのでもったいないが,これを別にしておかないと能力チェックが困難になってしまう.
|
|
15-element Vector{Vector{Float64}}:
[1.0, 0.0, 0.0]
[1.0, 0.0, 0.0]
⋮
残りは学習に使えるデータだ.
|
|
135-element Vector{Vector{Float64}}:
[1.0, 0.0, 0.0]
[1.0, 0.0, 0.0]
⋮
次に,花のがく片の長さ…等の数字を正規化しよう. それぞれの数字の大きさ等が異なるのに NN で混ぜるのは NN の性能を下げるだけなので,こうしておこう.
|
|
さて,肝心の NN そのものを定義しよう. 先の例題よりずっと難しいはずの問題だから,少し n を大きくし,また 中間層も増やそう.
|
|
あとは誤差(損失関数)を定義し,パラメータの初期値を用意すれば良い.
|
|
20×114 Matrix{Float64}:
-2.69872 4.57275 -1.22044 … -1.91681 3.91092 -3.5388
-2.9915 -1.99061 1.77325 2.48023 3.70738 4.05232
-3.27424 2.83662 -1.68226 -0.481219 0.226912 3.85234
4.80131 1.52694 -0.40866 3.49361 -1.90544 0.247762
-2.86762 -4.7581 3.69804 0.0691466 1.67901 -4.7041
…
-3.76627 4.71857 -0.785994 … -3.53204 0.51036 -1.61283
4.65462 0.155111 -1.06677 -4.4002 4.79697 -3.02118
-0.904377 1.00613 0.0831876 2.2009 3.73551 -0.146672
-2.16668 4.22355 -4.95464 0.900292 -1.46091 0.253256
3.45072 0.147795 4.43228 2.97151 -2.85828 -1.84148
少し強引だが,下記のように学習させてしまおう.
|
|
Progress: 100%|███████████████████████████████| Time: 0:00:37
うまく学習できたか,少し見てみよう. まずはサンプルデータの1番目だ.
|
|
3-element Vector{Float64}:
0.9999895151391504
9.655343976072604e-6
8.295168736658137e-7
この出力は,まあ,NN がどの分類であるかの確率出力を出した,と思えば良い. だからこの場合は 1種類目のアヤメの確率が高いと言っているわけで,実際は
|
|
3-element Vector{Float64}:
1.0
0.0
0.0
より,実際もそうであることがわかる.
あと 2点ほど手動でチェックしてみよう.次に,2種類目のアヤメのデータであるはずの 70番目のデータに対する NN の出力を見ると,
|
|
3-element Vector{Float64}:
1.0450317543938049e-5
0.9999844089491658
5.140733290340332e-6
となっており,やはりこの場合も正しく学習できていることがわかる.
同様に,3種類目のアヤメのデータである 130番目のデータを NN に入力すると,
|
|
3-element Vector{Float64}:
7.726796383260256e-8
1.1397093547778112e-6
0.9999987830226813
となり,このデータに対してもやはり正しく学習できていることが確認できる.
実際,この場合はすべて正しく学習できていて(初期値が乱数によるので,もちろん人によって異なりうるが), 次のように確かめられる. まず,NN の確率出力をもらってどう判断するか,という操作を次のような関数にしよう.
|
|
こうしておいて,学習に使ったサンプルデータと,NN の出力による判断値の違いを次のようにまとめる.
|
|
135-element Vector{Vector{Float64}}:
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
⋮
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
少なくとも学習はうまくいっているように見える.一つもミスがないか確かめておこう.
|
|
0.0
うむ,学習に使ったデータに対しては 100% の学習ができたことがこれで確認できた.
では,肝心の,「初めてみるデータに対して確かに NN は判断ができるか」をチェックしよう. まずは手動でいくつか確認してみよう.
|
|
3-element Vector{Float64}:
0.9999894672043542
9.482008512301156e-6
1.0507871334468467e-6
ふむ,これは本来の 46番目のデータ(花は一種類目)に対する NN の判断だが,確かに正しい.
ほかも見てみよう.
|
|
3-element Vector{Float64}:
1.4295460493849339e-5
0.9999795612987193
6.143240786718024e-6
そしてこれは本来の 96番目のデータ(花は二種類目)に対する NN の判断だ. これも確かに正しい.
次はどうかな.
|
|
3-element Vector{Float64}:
5.5972916215434685e-8
9.357544525378509e-7
0.9999990082726312
これは本来の 146番目のデータ(花は三種類目)に対する NN の判断で,これも確かに正しいな.
NN が知らない15個のデータに対して一気にチェックしよう.
|
|
15-element Vector{Vector{Float64}}:
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
[0.0, 0.0, 0.0]
おお. 一箇所もミスがない.未知のデータに対しても(今回はたまたま),100% の正解率というところか. こんな簡単な作りの NN に 135個のデータを与えて学習させることでこの判断正解率なので,なかなか良いと考えて良さそうだ. もっとたくさんデータが与えて学習させれば,よりしっかりとした NN を作ることができるだろうと期待できる.
というわけで,今回は十分に良い機械学習ができたと言えよう. ただし,過学習(過学習についてはレポートにて)の恐れはあるのでそこは調べておいて,機械学習の現場では忘れないようにしよう.
レポート
以下の課題について能う限り賢明な調査と考察を行い,
2022-AppliedMath7-Report-14
という題名をつけて e-mail にて教官宛にレポートとして提出せよ. なお,レポートを e-mail の代わりに TeX で作成した書面にて提出してもよい.
課題
- 最初のターゲット問題の2次元バージョンに取り組んでみよう.
具体的には,図
の中で定義される関数 $S_c$ に従ってデータ $D = \{ \boldsymbol{x}_k, \boldsymbol{y}_k = S_c(\boldsymbol{x}_k) \}_{k=1}^N$ が $N \cong 10,000$ 程度で得られているとする($N$ は好きに設定して良い).
関数 $S_c$ が未知である想定のもとに,今回の授業と同様に NN を構成し,データ $D$ を使ってパラメータを学習させて,NN が関数 $S_c$ を近似的に構成するようにしてみよう.
注: この問題は,2つのパラメータ( $\Omega$ 上の座標 $(x,y)$ のこと)から 2種類の分類(0 か 1 か)ができるように,という機械学習を行うことに相当する. - 資料入門2 機械学習用フレームワークの利用を読み,package
Flux
を一通り使ってみてその様子を報告せよ.
上記資料での MNISTデータのダウンロード方法や画像処理の記載についてはこの半年ほどで package に大きな変更がありそのままでは動かない. MLDatasets のマニュアル を読むなどして資料を修正しつつ読み進めよう.
まあ,データの読み込みは学習用の部分は
|
|
と直せば良い.
なお,raw_imgs
から imgs
を作るところの float.()
の処理も不要かな.まあそのままでも大丈夫だけど.
そして検証用のデータも上の :train
という部分を :test
と直すなどでいけるだろう.
また,行列データをグレイ表現の画像で見たければ,
|
|
とするとか,
|
|
などとすればいいだろう.
3. 「過学習」について,文献などを用いて調べ,自分なりに対応策を考えてみよう.考えた対応策がうまくいくかは,細かい工夫によって随分変わったりするので,ここではそこまで実現可能性や効率等についてあまり考えなくて良い.
-
頭脳労働の多くはこうした能力に大いに依存している.例えば翻訳,プログラミング,検査,その他,具体的な例はいくらでもあるだろう. ↩︎
-
とはいえ,実は自動微分は「各分野で再発見されることで有名な技術」で,講演時に「20回以上再発見されている」と言っている人が居た. この回数が本当なのかはともかく,再発見されることが多いのは確かだ.ちなみに,自動微分そのものについては例えば Griewank, Andreas. "On automatic differentiation." Mathematical Programming: recent developments and applications 6.6 (1989): 83-107, なんかが図もあってが分かりやすい. ↩︎
-
この $\gamma$ の式は,実現を期待している $f(H+\Delta H) \cong 0$ の左辺を Tayler 展開した 1次近似式 $f(H) + \mbox{grad}_H f(H) \cdot \Delta H\cong 0$ の $\Delta H$ に勾配法が提案する $\Delta H = - \gamma \, \mbox{ grad}_H f(H)$ を代入すると得られる. ↩︎
-
もちろん,実際の問題はデータ集めからして大変なわけで,そうそうお気楽に考えてはいかんが. ↩︎
-
MLDatasets
パッケージの機能は以前はFlux
パッケージに含まれていたものだ.今でも一応含まれているが,いずれ削除されるだろうから今から分けておくのがベターだね. ↩︎