tiny-cnn

昨日に引き続きtiny-cnn。
https://github.com/nyanp/tiny-cnn

作者は多分日本人っぽい。2013/01頃に作り始めたみたいだ。
http://nyanp.hatenablog.com/entry/20130108/p1

tiny-cnnのレポジトリのdataフォルダには、mnistの訓練データは入っているけれど、cifarの訓練データは含まれていない。
http://www.cs.toronto.edu/~kriz/cifar.html
から cifar-10-binary.tar.gz をダウンロードして得たデータを指定して example_cifar_train プロジェクトを実行してみると、1回のepochの実行に 620秒程掛かる。(Core i5-4670 @ 3.40GHz)これが30回分なので学習が完了するのに5時間以上必要だ。

tiny-cnnはC++11で書かれているけれど、もっと単純にC言語で書かれた実装も見てみたいな。

トレーニングに結構時間が掛かるのでNeuralNetwork構築の試行錯誤が時間が掛かって大変そう。
まぁ何もしないで何も生まれる事は無いのだから何かするしかない。