EnsekiTT Blog

EnsekiTTが書くブログです。

Chainerで転移学習するときに、新たなデータで既に学習済のところを変更されないように固定する話

つまりなにしたの?

転移学習をすすめるにあたって、最後の層だけ学習して、それ以外の層はそのままにしたい。
1つの手としては、

model(inputs={'data': X}, outputs=['loss3/classifier'])

のoutputsを最終層の手前までにして事前にデータを変換してからそれに対して最終層を学習するモデルにする方法。
それとは別に、特定の層の最適化を行わない方法が検討できる。
今回は、特定の層の最適化を行わない方法をメモしておく。

f:id:ensekitt:20171130022359p:plain

続きを読む

Pythonで機械学習をやった時にその予測結果を評価する誤差関数の話

つまりなにしたの?

機械学習ディープラーニングだっ!と予測アルゴリズムを弄くりまわしたくなる気持ちをぐっと抑えて、
構築したアルゴリズムの予測結果を評価するための誤差(Error)の話。
ってことでデータ解析のコンテストとかでもよく使う誤差とその派生を幾つかまとめて、
すぐ使えるように式と Python (Numpy)コードで残しておくことにした。

f:id:ensekitt:20171127221853j:plain

今回紹介する誤差

  • Absolute Error
  • Mean Absolute Error
  • Mean Squared Error
  • Mean Consequential Error
  • Root Mean Squared Error
  • Root Mean Squared Persentage Error
  • Root Mean Squared Logarithmic Error
続きを読む
クリエイティブ・コモンズ・ライセンス
この 作品 は クリエイティブ・コモンズ 表示 4.0 国際 ライセンスの下に提供されています。