[TOC]
1. 距離学習(Metric Learning)
-
アブストのみ読んだ.Kernel Hilert spaceを用いてPeron-Frobenius operatorというものを定義及び提案.従来手法は提案手法の特殊ケースとして与えられる.数学よりで面白そう.
2. 深層学習
2.1. トップConference
Computer ScienceのTop Conference
Computer ScienceのTop Conference
2.2. チェックしたまとめサイト
CVPR2018
- CVPR 2018速報 深層学習会の動向について詳しい(p64まで流し読み)
- CVPR 2018に採択された全979論文のサマリ(未読)AIが作成,人間作成
2019
2.3. 論文
2.3.1. トラッキングtracking
物体検知アルゴリズムM2Det
YOLO
高速/汎用(自然の画像を学習→アート作品でテスト)
2.3.2. ドメイン適応 Domain Adaptation(DA)
概要
転移学習(Transfer Learning)と呼ばれる学習手法の一種です.十分な教師ラベルを持つドメイン(Source Domaind,ソースドメイン)から得られた知識を,十分な情報がない目標のドメイン(Target Domain, ターゲットドメイン)に適用することで,目標ドメインにおいて高い精度で働く識別器などを学習します.ここで,ドメイン(Domain)とは,データの集まりを指す言葉です.特に,目標ドメインが一切のラベルを持たない場合は、Unsupervised Domain Adaptation (UDA) と呼ばれ,ドメイン適応の中でも特に難しいタスクになります.
研究の推移
- ターゲットドメインのサンプルの分布をソースドメインの分布に近付ける(特徴空間を近づける場合も含む)
- ソースドメインの各クラスの分布にターゲットドメインを合わせる
まとめサイト
比較
以下の3つの手法の概要と比較(SVHNで学習,MNISTでテスト)
精度(Source Only 0.63, ADDA 0.78, CyCADA 0.81, MCD 0.97)
- Adversarial Discriminative Domain Adaptation(ADDA)
- Cycle-Consistent Adversarial Domain Adaptation(CyCADA)
Maximum Classifier Discrepancy for Unsupervised Domain Adaptation (MCD)
Adversarial Discriminative Domain Adaptation (ADDA) になるように学習する
- 手順:
- Pre-training:ソースの画像とラベルを用いてSourceCNNとClassifierを学習
- Adversarial Adaptation:学習済SourceCNNのパラメータで初期化したTargetCNNを用いてターゲット画像から特徴抽出を行う.どちらのドメインから特徴がやってきたかを識別するDiscriminatorを配置し,Adversarial Learningを行うことでTargetCNNとSourceCNNの出力分布を近づける
- Pre-trainingで学習したClassifierとAdversarial Adaptationで学習したTargetCNNを用いて,ターゲットのテスト画像でラベル予測を行う
- 派生 M-ADDA:Unsupervised Domain Adaptation with Deep Metric Learning ICML2018で発表.TripletLossを用いてソースドメインをクラスタリングできるように学習した後にターゲットドメインのクラスタの重心をソースドメインのクラスタの重心に近づけるLossを提案し敵対的学習で訓練.gitにpytorch実装あり.日本語解説
- 手順:
- CyCADA
- 派生 CyderGAN?
- Maximum Classifier Discrepancy for Unsupervised Domain Adaptation (MCD)
ソースとターゲットの特徴抽出後の分布を近づける際に各クラスの分布も考慮する.
- 派生
- Sliced Wasserstein Discrepancy for Unsupervised Domain Adaptation Sliced Wasserstein Distanceを用いてより精度を向上させた論文(CVPR2019でAccept)
- DeepJDOT:Deep Joint Distribution Optimal Transport for Unsupervised Domain Adaptation(ECCV2018の論文)
- 派生
2.3.3. 画像生成
2.3.4. 異常検知
- 参考資料 手法の大別と概要
論文
Anomaly Detection using One-Class Neural Networks 教師無し異常検知手法.One Class SVMをニューラルネットに発展させた手法.SVMのパラメータと深層学習のパラメータを交互に学習?日本語解説
GANomaly: Semi-Supervised Anomaly Detection via Adversarial Training (ACCV 2018)
- 疑問 adversarial lossの部分は機能してる?
- 説明資料 AnoGAN, Efficient-GAN-Anomalyの違いあり
EFFICIENT GAN-BASED ANOMALY DETECTION(Efficient GAN/EGBAD), ICLR(2018)
- 説明資料 日本語資料
-
製品の部分毎の複雑さに頑強な異常度を定義している.詳細はこちら
Improving Unsupervised Defect Segmentation by Applying Structual Similarity To Autoencoders
2018年6月:arXiv初版,2019年2月:arXivでv3で引用数2(2019/06/30時点)内容は重そうだが,結果の図を見ると異常個所のsegmentationが出来ている印象がある.
Generative Outliers Detector Network
2019/1/12に書かれたspam文章をVAEの枠組みで検知する手法.内容は易しそう.
Truncated Gaussian-Mixture Variational AutoEncoder
2019/2/11:arXiv初版.潜在空間に混合ガウス分布を仮定しているらしい.熟読対象.
VA based Anomaly Detection using Reconstruction Probability
2015年に書かれたものだが,引用数が104にもなっているのでチェック
2.3.5. Attention
- 概要 Attentionの日本語解説スライド 入力系列をEncoderによって一つの固定長ベクトルにするのではなく,Encoder中の各隠れ層をとっておいてdecoderの各ステップで使う(加重平均など) (翻訳,文章要約,対話生成)
- Adaptive Computation Time for Recurrent Neural Networks (ACT) RNNの各出力ステップの計算量を動的に変化させることで精度向上を図る手法.日本語解説
2.3.6. 蒸留(Distillation)
- 概要 一度訓練したモデルが学習した知識を別の軽量なモデルに継承させる. 実応用の本番環境の計算リソースが十分でない場合の対処を想定.
- 用語 教師モデル:通常の教師あり学習の方法で訓練したモデル 生徒モデル:教師モデルの出力を正解ラベルの代わりに使用,あるいは正解ラベルに追加して訓練した軽量なモデル
- 解説記事 概要が掴める記事
- 論文
- Data Distillation (CVPR2018) 複数の変換を施した画像を教師モデルに入力、各変換画像に対して得られる教師モデルの出力を平均することで、生徒モデルを訓練するための正解ラベルを得ます。正解ラベルなしデータを正解ラベルありデータに追加して利用することで、正解ラベルありデータのみでの教師あり学習以上の精度が得られることが報告されている.
- Born Again Neural Networks (ICML2018) 教師モデルと同程度のキャパシティを持つ生徒モデルに蒸留することで、教師モデルを凌ぐ性能の生徒モデルが得られることが報告
2.3.7. GAN
-
重要な点 様々なG ANの学習に組み入れることが可能みたい
概要 通常のGANの目的は最終的にJensen-Shannon divergenceという距離のもとで真のデータの分布とGeneratoraが作成するデータの分布を一致させることにあるが,Generatorの最適値付近では勾配が0になり学習がうまくいかなくなることが知られており,代わりにWasserstein距離を用いた損失関数を使用することでGANの学習を安定させる手法.
解説 大まかな概要 日本語
- 派生 WGAN-GP
2.3.8. ネットワーク構造
Squeeze-and-Excitation Networks(SeNets) CNNに特化したAttention機構でコードも仕組みも超簡単.畳み込み層の各チャネルを均等に出力せず,適応的に重みをかける.これをCNNに追加しても計算量は1%しか増えず,性能の向上が期待される.例えば,ResNet-50に適応することで性能はResNet-101相当になり計算量は半分になる.解説 ImageNet2017で1位のネットワーク.SENetを使った手法がNIPSお論文でちらほら見かける
U-Net(入力画像の高次の特徴を残す手法)
概要
①Upサンプリング②マージ③全結合層がない④少ない教師データでの学習方法
応用例
[手書き文字のスキャン時に生じたぼやけ・かすれなどのノイズ除去](https://confit.atlas.jp/guide/event-img/jsai2018/4M1-01/public/pdf?type=in)
[細胞のセグメンテーション](https://blog.negativemind.com/2019/03/15/semantic-segmentation-by-u-net/)
[自動歌声分離](https://qiita.com/xiao_ming/items/88826e576b87141c4909)
Capsule Network (CapsNet)というNN(特にCNN)の強化版(ニューロンがベクトル)のようなものがあって、PyTorchで実装・およびMNISTで検証した記事がありました
CNNやRNNは局所的な特徴抽出をするため,画像全体やシーケンス全体の特徴も扱えるようにする手法.全結合層との違いは線形和の重みの部分が類似度になっていること.導入することで動画像の分類や物体検出,領域分割において性能が向上した.要約記事
2.3.9. GCN
AAAI2019でのGCNに関するtutorialのスライド
2.3.10. ゼロショット学習(Zero-shot_Learning)
Survey
A Survey of Zero-Shot Learning: Settings, Methods and Applications, 2019
2.3.11. アクティブラーニング(Active_Learning)
Survey
Active Learning Literature Survey, Burr Settles, 2010
2.3.12. 学習時の工夫
-
1つのNNで複数のタスクを学習.畳み込みと全結合層の小さい重みを削除→残りを再訓練して固定.削除した重みを次タスクの学習に利用.単純で強力.pytorch実装あり.
2.3.13. 言語処理
- 論文
2.3.14. その他
Spanning tree
- Grammarly