[TOC]

0.1. 重みの初期値

  • Xavierの初期値->重み=randn*(層のノードの数によって変化させる係数) SSDのextra_netのConv層のweightで使われていた.ただし,biasではconstが使われている.

0.2. パラメータ調整

  • ハイパーパラメータのopunaの自動枝刈りの機能が強力そう. 深層学習において,ここでいう枝刈りとは最初に指定したepoch数に達してなくても「学習率がこれ以上下がらなそうだったり」、「lossが大きすぎる場合」は途中で学習を終了し,別のハイパーパラメータを探索することをいう.

枝刈りの様子を視覚的に描写

Optunaの公式サイト 実際に使う時

0.3. ネットワークの可視化

https://github.com/HarisIqbal88/PlotNeuralNet

0.3.1. データセットについて

  • CPUでデータを読み込んで訓練時にGPUを使用する場合はtorch.utils.data.DataLoaderpin_memory=TrueとすることでデータをGPUに移動することきの時間が短縮される参考文献

0.4. データセットについて

0.5. アノテーション形式について

VOCフォーマット<xmin>は1始まりでWまで

1. 理論

1.1. 複数の特徴量をまとめる関数

は任意のと任意の次の置換に対して, を満たしている.

この時,は任意のと任意の次の置換に対して, が成立することを示せ.

線形関数では複数の特徴量をまとめる関数は実質的に構成できない.

:番目の細胞の特徴量とする

任意のただし ,任意の次の置換に対して, を満たす関数を求めたい.上記は を満たすを求めることと同値であることは容易に分かる.

まず,を深層学習でよく用いられている線形結合の形に限定して考える.つまり とする.

この時,任意の,任意の次の置換に対して仮定より が成立する.,を任意に固定し,を入れ替える互換をとする.このとき, とする. (*1)よりが成立.よって, となる.

Last modified by akirat1993 2019-05-26 02:56:51
Created by akirat1993 2019-05-26 02:56:51

results matching ""

    No results matching ""