2018年8月31日金曜日

ディープラーニングを体感しよう:第8章(体験してみて)


こんにちは。よっしーです。

これまでの記事:
ディープラーニングを体感しよう:第1章(まずは環境構築)
ディープラーニングを体感しよう:第2章(Python環境を構築する)
ディープラーニングを体感しよう:第3章(プログラムを動かしてみよう)
前回はプログラムコードの内容を最後まで見ました。

今回は、一通りディープラーニングというものを体験してみて
感じたことをまとめていきたいと思います。


〇 データ集めが大変 〇

今回は公開されているサンプルデータを使用したため、問題にはならなかったですが、
自分がやりたいことをやろうとすると、それに対する学習用データとテスト用データを
自身で用意することとなります。

機械学習にはある程度のサンプル数が必要になります。今回の使用したプログラムで言うと6000サンプル使いました。
6000個のデータとそれに対する答えのセットを用意するだけでも、なかなかの苦労です。

また、学習に適したサンプルデータ(似たようなデータではなく、ある程度の差があるけど答えは同じなど)でなければ、
学習しても上手く判断してくれずに、正解率がまったくあがらない。ということにもなりかねません。

量も質も大切ですので、なかなか大変な作業です。


〇 設定(ハイパーパラメータ)を自分で組むのは難しい 〇

正直なところ、一から自分で組んだとして、今の知識だけでは、
ハイパーパラメータを自在にチューニング出来るとは考えられないです。

解説でもアルゴリズムについてはかなり省略して書きましたが、
それぞれどういった特性があって、こういう場面で使うべき。
というのをしっかりと理解しておく必要があります。

少しでも設定を間違うと、学習を進めてもいまいちの結果となったり、


まったく意味のわからない結果が出たりと、


期待する線形にするには、どのような設定を行うのがよいのか。
なかなか一筋縄ではいかないと思います。


〇 自在に組むことが出来たらめっちゃ面白そう 〇

今回は、手書き画像の認識を例でやってみましたが、
いろいろな形で応用出来そうです。

顔写真をデータとして与えて「顔認証」とか、
株価の動きをデータとして与えて「株価予測」とか、

以下の動画はロボットアームが部品を上手く掴むようにディープラーニングで
学習させるものですが、こういうものが組めるととても面白そうです。




実現出来るライブラリは、すでにいろいろと揃っていますので、
みなさんも興味があれば、ぜひチャレンジしてみてはと思います。

今回で「ディープラーニングを体感しよう」の連載は終了となります。
長い間、ありがとうございました。ではまた~。

0 件のコメント:

コメントを投稿