[TOC]
0.1. 重みの初期値
- Xavierの初期値->重み=randn*(層のノードの数によって変化させる係数) SSDのextra_netのConv層のweightで使われていた.ただし,biasではconstが使われている.
0.2. パラメータ調整
- ハイパーパラメータのopunaの自動枝刈りの機能が強力そう. 深層学習において,ここでいう枝刈りとは最初に指定したepoch数に達してなくても「学習率がこれ以上下がらなそうだったり」、「lossが大きすぎる場合」は途中で学習を終了し,別のハイパーパラメータを探索することをいう.
0.3. ネットワークの可視化
https://github.com/HarisIqbal88/PlotNeuralNet
0.3.1. データセットについて
- CPUでデータを読み込んで訓練時にGPUを使用する場合は
torch.utils.data.DataLoader
のpin_memory=True
とすることでデータをGPUに移動することきの時間が短縮される参考文献
0.4. データセットについて
0.5. アノテーション形式について
VOCフォーマット<xmin>
は1始まりでWまで
1. 理論
1.1. 複数の特徴量をまとめる関数
は任意のと任意の次の置換に対して, を満たしている.
この時,は任意のと任意の次の置換に対して, が成立することを示せ.
線形関数では複数の特徴量をまとめる関数は実質的に構成できない.
:番目の細胞の特徴量とする
任意のただし ,任意の次の置換に対して, を満たす関数を求めたい.上記は を満たすを求めることと同値であることは容易に分かる.
まず,を深層学習でよく用いられている線形結合の形に限定して考える.つまり とする.
この時,任意の,任意の次の置換に対して仮定より が成立する.,を任意に固定し,とを入れ替える互換をとする.このとき, とする. (*1)よりが成立.よって, となる.