[TOC]

1. 距離学習(Metric Learning)

  • 時系列非線形データに関する距離学習

    アブストのみ読んだ.Kernel Hilert spaceを用いてPeron-Frobenius operatorというものを定義及び提案.従来手法は提案手法の特殊ケースとして与えられる.数学よりで面白そう.

2. 深層学習

2.1. トップConference

画像系のTop Conference

Computer ScienceのTop Conference

分野別・最新論文のまとめ

Computer ScienceのTop Conference

分野別・最新論文のまとめ

2.2. チェックしたまとめサイト

2.3. 論文

2.3.1. トラッキングtracking

2.3.2. ドメイン適応 Domain Adaptation(DA)

概要

転移学習(Transfer Learning)と呼ばれる学習手法の一種です.十分な教師ラベルを持つドメイン(Source Domaind,ソースドメイン)から得られた知識を,十分な情報がない目標のドメイン(Target Domain, ターゲットドメイン)に適用することで,目標ドメインにおいて高い精度で働く識別器などを学習します.ここで,ドメイン(Domain)とは,データの集まりを指す言葉です.特に,目標ドメインが一切のラベルを持たない場合は、Unsupervised Domain Adaptation (UDA) と呼ばれ,ドメイン適応の中でも特に難しいタスクになります.

研究の推移
  • ターゲットドメインのサンプルの分布をソースドメインの分布に近付ける(特徴空間を近づける場合も含む)
  • ソースドメインの各クラスの分布にターゲットドメインを合わせる
まとめサイト

SVHNのデータで学習しMNISTで数字分類の精度を測定

比較

以下の3つの手法の概要と比較(SVHNで学習,MNISTでテスト)

精度(Source Only 0.63, ADDA 0.78, CyCADA 0.81, MCD 0.97)

  1. Adversarial Discriminative Domain Adaptation(ADDA)
  2. Cycle-Consistent Adversarial Domain Adaptation(CyCADA)
  3. Maximum Classifier Discrepancy for Unsupervised Domain Adaptation (MCD)

  4. Adversarial Discriminative Domain Adaptation (ADDA) になるように学習する

    • 手順:
      • Pre-training:ソースの画像とラベルを用いてSourceCNNとClassifierを学習
      • Adversarial Adaptation:学習済SourceCNNのパラメータで初期化したTargetCNNを用いてターゲット画像から特徴抽出を行う.どちらのドメインから特徴がやってきたかを識別するDiscriminatorを配置し,Adversarial Learningを行うことでTargetCNNとSourceCNNの出力分布を近づける
      • Pre-trainingで学習したClassifierとAdversarial Adaptationで学習したTargetCNNを用いて,ターゲットのテスト画像でラベル予測を行う
    • 派生 M-ADDA:Unsupervised Domain Adaptation with Deep Metric Learning ICML2018で発表.TripletLossを用いてソースドメインをクラスタリングできるように学習した後にターゲットドメインのクラスタの重心をソースドメインのクラスタの重心に近づけるLossを提案し敵対的学習で訓練.gitにpytorch実装あり.日本語解説
  5. CyCADA
    • 派生 CyderGAN?
  6. Maximum Classifier Discrepancy for Unsupervised Domain Adaptation (MCD) ソースとターゲットの特徴抽出後の分布を近づける際に各クラスの分布も考慮する.

2.3.3. 画像生成

2.3.4. 異常検知

2.3.5. Attention

2.3.6. 蒸留(Distillation)

  • 概要 一度訓練したモデルが学習した知識を別の軽量なモデルに継承させる. 実応用の本番環境の計算リソースが十分でない場合の対処を想定.
  • 用語 教師モデル:通常の教師あり学習の方法で訓練したモデル 生徒モデル:教師モデルの出力を正解ラベルの代わりに使用,あるいは正解ラベルに追加して訓練した軽量なモデル
  • 解説記事 概要が掴める記事
  • 論文
    • Data Distillation (CVPR2018) 複数の変換を施した画像を教師モデルに入力、各変換画像に対して得られる教師モデルの出力を平均することで、生徒モデルを訓練するための正解ラベルを得ます。正解ラベルなしデータを正解ラベルありデータに追加して利用することで、正解ラベルありデータのみでの教師あり学習以上の精度が得られることが報告されている.
    • Born Again Neural Networks (ICML2018) 教師モデルと同程度のキャパシティを持つ生徒モデルに蒸留することで、教師モデルを凌ぐ性能の生徒モデルが得られることが報告

2.3.7. GAN

  • Wasserstein GAN (CVPR2018)

    • 重要な点 様々なG ANの学習に組み入れることが可能みたい

    • 概要 通常のGANの目的は最終的にJensen-Shannon divergenceという距離のもとで真のデータの分布とGeneratoraが作成するデータの分布を一致させることにあるが,Generatorの最適値付近では勾配が0になり学習がうまくいかなくなることが知られており,代わりにWasserstein距離を用いた損失関数を使用することでGANの学習を安定させる手法.

    • 解説 大まかな概要 日本語

    • 派生 WGAN-GP
  • 目的別GAN+指定した種類の画像を生成するGAN(ACGAN)

2.3.8. ネットワーク構造

  • Squeeze-and-Excitation Networks(SeNets) CNNに特化したAttention機構でコードも仕組みも超簡単.畳み込み層の各チャネルを均等に出力せず,適応的に重みをかける.これをCNNに追加しても計算量は1%しか増えず,性能の向上が期待される.例えば,ResNet-50に適応することで性能はResNet-101相当になり計算量は半分になる.解説 ImageNet2017で1位のネットワーク.SENetを使った手法がNIPSお論文でちらほら見かける

  • U-Net(入力画像の高次の特徴を残す手法)

    • 概要

      ①Upサンプリング②マージ③全結合層がない④少ない教師データでの学習方法

    • 応用例

MRI画像から肝臓領域の抽出 & U-Netの簡単な説明

[手書き文字のスキャン時に生じたぼやけ・かすれなどのノイズ除去](https://confit.atlas.jp/guide/event-img/jsai2018/4M1-01/public/pdf?type=in)

[細胞のセグメンテーション](https://blog.negativemind.com/2019/03/15/semantic-segmentation-by-u-net/)

[自動歌声分離](https://qiita.com/xiao_ming/items/88826e576b87141c4909)

CNNやRNNは局所的な特徴抽出をするため,画像全体やシーケンス全体の特徴も扱えるようにする手法.全結合層との違いは線形和の重みの部分が類似度になっていること.導入することで動画像の分類や物体検出,領域分割において性能が向上した.要約記事

2.3.9. GCN

2.3.10. ゼロショット学習(Zero-shot_Learning)

  • Survey

    A Survey of Zero-Shot Learning: Settings, Methods and Applications, 2019

2.3.11. アクティブラーニング(Active_Learning)

  • Survey

    Active Learning Literature Survey, Burr Settles, 2010

2.3.12. 学習時の工夫

  • PackNet CVPR2018

    1つのNNで複数のタスクを学習.畳み込みと全結合層の小さい重みを削除→残りを再訓練して固定.削除した重みを次タスクの学習に利用.単純で強力.pytorch実装あり.

2.3.13. 言語処理

2.3.14. その他

Last modified by akirat1993 2019-08-10 18:30:32
Created by akirat1993 2019-05-26 02:56:51

results matching ""

    No results matching ""