DeepLearning
つまりなにしたの? PythonとOpenCV Contribに含まれているディープラーニングベースのテキスト領域を検出するCNNを試してみた。 思いの外ガバガバ判定で、領域を使ったアプリケーションを考えるなら結構大変そうだなって感じだった。
つまりなにしたの? 街で撮ってきた動画をYolo v2とTiny Yoloで解析して、速度と精度のトレードオフがどの程度か肌感覚で知ることが出来た。
つまりなにしたの? Yolo v2を使うために、Darkflowをインストールしたので、早速検出できるものが写った画像を入れて、 検出結果を可視化して保存した。
つまりなにしたの? DarkflowでYolo v2を動かしてみたらいい感じにバウンディングボックスを描くことができそうなので今日はまず環境構築の部分を紹介する。
つまりなにしたの? 目線検出のために、OpenCVとWebカメラで撮った画像をChainerのDNN(GoogLeNet for 目線検出)に突っ込んでリアルタイムにネットワークを通してみた。
つまりなにしたの? ひたすらディスプレイの各点を見つめる苦行に耐えた。耐えるための工夫をまとめる。目標枚数はとりあえず21000枚。足りなきゃ足す。まだ目線検出はできていません。今回作る21000枚でできるかが勝負です。
つまりなにしたの? 前回画面上に5*7点の注視点を用意してそれぞれをガン見しているオタクこと私のキャプチャをノートPC据え付けのWebカメラで撮影した。 今回はこれを使ってGoogLeNetにどこを見ている画像なのかを判別してもらおうと思う。 ただ、今回は動…
つまりなにしたの? 前回、モノクロ画像(MNIST)をDCGANで学習させたし、今度はカラー画像をやろうと思ってCIFAR10を学習させた。 ただ、飛行機と自動車と鳥と猫と鹿と犬とカエルと馬と船とトラックを混ぜたまま入れたせいか、生成されたものはクリーチャー…
つまりなにしたの? 高解像度GANができるようになったという話をきいたけど基礎が抜けてるのでDCGANをChainerのTrainerを使って作ってみた。 作ってる途中で公式がDCGANのTrainer使った実装を公開していることを知るものの写経も辞さない構えで作った。
つまりなにしたの? 友人の会社の勉強会にお邪魔して音声生成するために必要なことを勉強しつつ、 DeepNeuralNetworkを無理やり適用する方法を提案してみた。 でも、まだ計算が終わっていないし、なんなら収束しなさそう()
いや、毎度思うのは。 アルゴリズム実現するところより、自分の扱いたいデータを適切にライブラリに合わせるところがめんどくさいと言うかなんというか… TensorFlowの時と同じモチベーション データセットも同じくhttp://deeplearning.net/tutorial/gettings…
今回使ったデータセットはこちら http://deeplearning.net/tutorial/gettingstarted.html の mnist.pkl.gz これが、train,testが分かれていない曲者で、でもデータ構造的にはわかりやすくてまさに getting startedなんだけど。直接TensorFlowのチュートリア…