2020年02月06日に発表された機械学習分野の論文59本のAbstractをまとめて和訳しました。
この記事の見出し
- 1 FastGAE: Fast, Scalable and Effective Graph Autoencoders with Stochastic Subgraph Decoding
- 2 Deep RBF Value Functions for Continuous Control
- 3 Locally-Adaptive Nonparametric Online Learning
- 4 Wasserstein Exponential Kernels
- 5 $ε$-shotgun: $ε$-greedy Batch Bayesian Optimisation
- 6 Understanding the Decision Boundary of Deep Neural Networks: An Empirical Study
- 7 Sharpe Ratio in High Dimensions: Cases of Maximum Out of Sample, Constrained Maximum, and Optimal Portfolio Choice
- 8 Proximity Preserving Binary Code using Signed Graph-Cut
- 9 Feature-map-level Online Adversarial Knowledge Distillation
- 10 Online Passive-Aggressive Total-Error-Rate Minimization
- 11 Forecasting Industrial Aging Processes with Machine Learning Methods
- 12 Does the Markov Decision Process Fit the Data: Testing for the Markov Property in Sequential Decision Making
- 13 A Reinforcement Learning Framework for Time-Dependent Causal Effects Evaluation in A/B Testing
- 14 Semiparametric Bayesian Forecasting of Spatial Earthquake Occurrences
- 15 Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable Embeddings with Generative Priors
- 16 Entropy Minimization vs. Diversity Maximization for Domain Adaptation
- 17 Concept Whitening for Interpretable Image Recognition
- 18 Graph matching between bipartite and unipartite networks: to collapse, or not to collapse, that is the question
- 19 Simultaneous prediction and community detection for networks with application to neuroimaging
- 20 Structural Deep Clustering Network
- 21 Improved Subsampled Randomized Hadamard Transform for Linear SVM
- 22 Revisit to the Inverse Exponential Radon Transform
- 23 Fast and Robust Comparison of Probability Measures in Heterogeneous Spaces
- 24 Exploratory Machine Learning with Unknown Unknowns
- 25 Linearly Constrained Neural Networks
- 26 A Precise High-Dimensional Asymptotic Theory for Boosting and Min-L1-Norm Interpolated Classifiers
- 27 ML4H Abstract Track 2019
- 28 Large Batch Training Does Not Need Warmup
- 29 Uncertainty Quantification for Bayesian Optimization
- 30 DVNet: A Memory-Efficient Three-Dimensional CNN for Large-Scale Neurovascular Reconstruction
- 31 Accelerating Psychometric Screening Tests With Bayesian Active Differential Selection
- 32 A Deep Conditioning Treatment of Neural Networks
- 33 Visual Concept-Metaconcept Learning
- 34 Proper Learning of Linear Dynamical Systems as a Non-Commutative Polynomial Optimisation Problem
- 35 A Generalized Flow for B2B Sales Predictive Modeling: An Azure Machine Learning Approach
- 36 Learning Task-Driven Control Policies via Information Bottlenecks
- 37 Apportioned Margin Approach for Cost Sensitive Large Margin Classifiers
- 38 Bootstrapping a DQN Replay Memory with Synthetic Experiences
- 39 Introduction to quasi-open set semi-supervised learning for big data analytics
- 40 Exploring Structural Inductive Biases in Emergent Communication
- 41 Finite Time Analysis of Linear Two-timescale Stochastic Approximation with Markovian Noise
- 42 Minimax Defense against Gradient-based Adversarial Attacks
- 43 A Regression Tsetlin Machine with Integer Weighted Clauses for Compact Pattern Representation
- 44 Machine Learning Techniques to Detect and Characterise Whistler Radio Waves
- 45 ALPINE: Active Link Prediction using Network Embedding
- 46 Selfish Robustness and Equilibria in Multi-Player Bandits
- 47 tfp.mcmc: Modern Markov Chain Monte Carlo Tools Built for Modern Hardware
- 48 Learning bounded subsets of $L_p$
- 49 Robust Generative Restricted Kernel Machines using Weighted Conjugate Feature Duality
- 50 Towards a Fast Steady-State Visual Evoked Potentials (SSVEP) Brain-Computer Interface (BCI)
- 51 Graph Representation Learning via Graphical Mutual Information Maximization
- 52 On Positive-Unlabeled Classification in GAN
- 53 Decoupling Learning Rates Using Empirical Bayes Priors
- 54 Improving Efficiency in Large-Scale Decentralized Distributed Training
- 55 Efficient Riemannian Optimization on the Stiefel Manifold via the Cayley Transform
- 56 Efficient, Noise-Tolerant, and Private Learning via Boosting
- 57 On the interaction between supervision and self-play in emergent communication
- 58 On the Sample Complexity and Optimization Landscape for Quadratic Feasibility Problems
- 59 Transfer Learning for HVAC System Fault Detection
FastGAE: Fast, Scalable and Effective Graph Autoencoders with Stochastic Subgraph Decoding
FastGAE:確率的サブグラフ復号化を備えた高速でスケーラブルで効果的なグラフオートエンコーダ
URL:http://arxiv.org/abs/2002.01910v1
この論文の概要(機械翻訳による和訳)
グラフオートエンコーダ(AE)および変分オートエンコーダ(VAE)は強力なノード埋め込み方法ですが、スケーラビリティの問題があります。このペーパーでは、グラフAEとVAEを数百万のノードとエッジを持つ大きなグラフにスケーリングする一般的なフレームワークであるFastGAEを紹介します。ノードのサンプリングとサブグラフのデコードに基づく当社の戦略は、パフォーマンスを維持または改善しながら、グラフAEとVAEのトレーニングを大幅にスピードアップします。多数の実世界のグラフでFastGAEの有効性を実証し、グラフAEおよびVAEを大幅に拡大する少数の既存のアプローチをしのいでいます。
Deep RBF Value Functions for Continuous Control
連続制御のためのディープRBF値関数
URL:http://arxiv.org/abs/2002.01883v1
この論文の概要(機械翻訳による和訳)
強化学習(RL)のコア操作は、学習された状態アクション値関数に関して最適なアクションを見つけることです。学習値関数が入力として連続的なアクションをとる場合、この操作はしばしば困難です。深層RBF値関数を導入します:動径基底関数(RBF)出力層を持つ深層ニューラルネットワークを使用して学習した状態アクション値関数。深いRBF値関数に関する最適なアクションは、希望する精度まで簡単に近似できることを示します。さらに、deepRBF値関数は、ユニバーサル関数近似をサポートしているため、必要な精度までの真の値関数を表すことができます。ディープRBF値関数を学習することにより、標準DQNアルゴリズムを継続制御に拡張し、結果のエージェントRBF-DQNが一連の連続アクションRL問題の標準ベースラインよりも優れていることを実証します。
Locally-Adaptive Nonparametric Online Learning
局所適応ノンパラメトリックオンライン学習
URL:http://arxiv.org/abs/2002.01882v1
この論文の概要(機械翻訳による和訳)
オンラインアルゴリズムの主な強みの1つは、任意のデータシーケンスに適応できることです。これは、複雑な環境に適合することができるコンパレータ関数の豊富なクラスに対して後悔が測定されるノンパラメトリック設定で特に重要です。このようなハードコンパレータと複雑な環境はローカルな規則性を示す可能性がありますが、パフォーマンスがこれらのローカルパターンを確実に利用できる効率的なアルゴリズムはほとんど知られていません。このギャップを埋めて、(1)競合関数のローカルリプシッツネス、(2)インスタンスシーケンスのローカルメトリックディメンション、(3)異なる予測変数のローカルパフォーマンスインスタンススペースの領域。以前のアプローチを拡張して、インスタンス空間の階層的なパッキングを動的に成長させるアルゴリズムを設計し、その枝刈りは手近な問題の異なる「局所性プロファイル」に対応します。ツリーの専門家に基づいた手法を使用して、このようなすべての剪定と同時に効率的に競合し、3種類すべてのローカル規則性に関連する量で後悔の範囲のスケーリングを証明します。 「単純な」局所性プロファイルと競合する場合、この手法は、以前のアプローチを使用して実証されたものよりも大幅に優れた後悔の限界をもたらします。一方、境界の時間依存性は、局所的な規則性を無視することで得られるものより悪くありません。
Wasserstein Exponential Kernels
Wasserstein指数カーネル
URL:http://arxiv.org/abs/2002.01878v1
この論文の概要(機械翻訳による和訳)
カーネルメソッドのコンテキストでは、データポイント間の類似性は、ユークリッド距離のおかげで定義されることが多いカーネル関数によってエンコードされます。一般的な例は、指数カーネルの二乗です。最近、最適な輸送理論に依存する他の距離-確率分布間のWasserstein距離など-は、異なる機械学習手法に対する実用的な関連性を示しています。この論文では、正則化されたWassersteindistanceのおかげで定義された指数カーネルの使用を研究し、それらの正定性について議論します。より具体的には、Wassersteinフィーチャマップを定義し、形状と画像に関連する教師あり学習の問題に対する関心を示します。経験的に、ワッサースタイン平方指数カーネルは、ユークリッド距離を使用した類似の分類器と比較して、形状の小さなトレーニングセットでより小さい分類エラーを生成することが示されています。
$ε$-shotgun: $ε$-greedy Batch Bayesian Optimisation
$ε$ -shotgun:$ε$ -greedy Batch Bayesian Optimization
URL:http://arxiv.org/abs/2002.01873v1
この論文の概要(機械翻訳による和訳)
ベイジアン最適化は、高価なブラックボックス関数を最適化するための一般的な代理モデルベースのアプローチです。代理モデルが与えられた場合、安価にクエリを取得する関数を最大化することで、費用のかかる評価を行う次の場所が選択されます。ブラックボックス関数を複数回並行して評価できるバッチ設定でのベイズ最適化のための$ epsilon $ -greedy手順を示します。私たちの$ epsilon $ -shotgunアルゴリズムは、モデルの予測、不確実性、および景観の変化率の概算を活用して、推定位置に分散するバッチソリューションの広がりを決定します。初期ターゲットの場所は、平均予測で搾取的な方法で、または-確率$ epsilon $-で設計空間の他の場所から選択されます。これにより、関数が急速に変化している領域でより高密度にサンプリングされた場所と、インロケーションが良好であると予測された(つまり、予測された最適値に近い)位置になり、関数がより平坦であるか、品質が低い領域でより多くの散乱サンプルが発生します。一連の合成関数と2つの実世界の問題で$ epsilon $ -shotgunメソッドを経験的に評価し、それらが少なくとも最新のバッチメソッドと同様に実行され、多くの場合それらのパフォーマンスを上回ることを発見しました。
Understanding the Decision Boundary of Deep Neural Networks: An Empirical Study
ディープニューラルネットワークの決定境界の理解:実証研究
URL:http://arxiv.org/abs/2002.01810v1
この論文の概要(機械翻訳による和訳)
多くの画像分類タスクで顕著なパフォーマンスを達成しているにもかかわらず、最先端の機械学習(ML)分類器は小さな入力の摂動に対して脆弱なままです。特に、敵対的な例の存在は、自動運転や病気の検出など、安全およびセキュリティが重要な環境でのMLモデルの展開に関する懸念を引き起こします。過去数年にわたって、敵対的および腐敗に対する堅牢性を改善することを目的とした多くの防御方法が公開されてきました。しかし、提案された対策は非常に限られた範囲でしか成功しませんでした。この限られた進歩は、部分的には、深層神経回路網の決定境界と決定領域の理解不足によるものです。したがって、決定点までのデータポイントの最小距離と、このマージンが深層神経回路網のトレーニングでどのように進化するかを研究します。 MNIST、FASHION-MNIST、およびCIFAR-10で実験を行うことにより、トレーニングの間に決定境界が自然画像に近づくことがわかります。この現象は、分類器がすでに低いトレーニングとテストのエラー率を取得しているトレーニングの後期エポックでも完全なままです。他方、敵対的訓練は、決定境界のこの望ましくない収束を防ぐ可能性があるように思われます。
Sharpe Ratio in High Dimensions: Cases of Maximum Out of Sample, Constrained Maximum, and Optimal Portfolio Choice
高次元のシャープレシオ:最大サンプル不足、制約付き最大、および最適なポートフォリオ選択のケース
URL:http://arxiv.org/abs/2002.01800v1
この論文の概要(機械翻訳による和訳)
この記事では、ポートフォリオ内のアセットの数がその期間よりも大きい場合の最大シャープレシオを分析します。この大きな次元のセットアップにおける障害の1つは、過剰資産収益のサンプル共分散行列の特異性です。この問題を解決するために、Meinshausen and Buhlmann(2006)によって開発されたnodewiseregressionと呼ばれる手法が役立ちます。 Lassoメソッドを使用して、精度行列のスパース/弱スパースで一貫した推定値を提供します。 3つの問題を分析します。私たちの論文の重要な結果の1つは、大きな次元のポートフォリオの平均分散効率が確立されていることです。次に、その結果に結び付けて、このサンプルの大きなポートフォリオで最大のサンプル外シャープ比を一貫して推定できることも示します。さらに、収束率を提供し、資産の数が対数因子まで収束を遅くすることを確認します。次に、ポートフォリオの重みが1になると最大シャープレシオの一貫性を提供し、制約された最大シャープレシオの新しい式と推定値も提供します。最後に、グローバル最小分散ポートフォリオとMarkowitz(1952)の平均分散ポートフォリオのシャープ比の一貫した推定値を提供します。仮定の観点から、時系列データを考慮しています。シミュレーションおよびサンプル外予測の演習では、新しい方法が因子および収縮ベースの手法と比較して優れた性能を発揮することが示されています。
Proximity Preserving Binary Code using Signed Graph-Cut
署名付きグラフカットを使用した近接保存バイナリコード
URL:http://arxiv.org/abs/2002.01793v1
この論文の概要(機械翻訳による和訳)
データポイント間の類似性と非類似性を学習してコンパクトで親和性を保持するバイナリコードを作成する、プロキシミティ保存コード(PPC)と呼ばれるバイナリ埋め込みフレームワークを紹介します。このコードを使用して、最近傍検索に高速でメモリ効率の高い近似を適用できます。当社のフレームワークは柔軟性があり、データポイント間で異なる近接性定義を可能にします。符号なしグラフ分割に基づいてバイナリコードを抽出する以前の方法とは対照的に、システムは、正および負のグラフの重みを組み込むことにより、データの魅力的および反発力をモデル化します。提案されたフレームワークは、NP困難であることが知られている問題である署名付きグラフの最小カットを見つけることまで要約されることが示されています。コードを少しずつ構築することにより、効率的な近似を提供し、優れた結果を達成します。提案された近似は、精度と複雑さの両方に関して、一般的に使用されるスペクトル法よりも優れていることを示しています。したがって、署名付きグラフカットに変換できる他の多くの問題に役立ちます。
Feature-map-level Online Adversarial Knowledge Distillation
機能マップレベルのオンライン敵対的知識蒸留
URL:http://arxiv.org/abs/2002.01775v1
この論文の概要(機械翻訳による和訳)
機能マップには、画像の強度と空間相関に関する豊富な情報が含まれています。ただし、以前のオンライン知識の蒸留方法は、クラスの確率のみを利用していました。したがって、本論文では、対人訓練フレームワークを使用して、クラス確率の知識だけでなく、特徴マップの知識も転送するオンライン知識蒸留法を提案します。識別器を使用して異なるネットワークの機能マップ分布を区別することにより、複数のネットワークを同時にトレーニングします。各ネットワークには、対応する識別器があり、機能マップをそれ自体から偽物として識別し、他方のネットワークのそれを実物として分類します。ネットワークを訓練して、対応する識別器をだますことにより、他のネットワークの機能マップ分布を学習できます。我々の方法は、L1などの従来の直接配列法よりも優れた性能を発揮し、オンライン蒸留に適していることを示しています。また、3つ以上のネットワークを一緒にトレーニングするための新しい循環学習方式を提案します。分類タスクのさまざまなネットワークアーキテクチャにメソッドを適用し、特に小規模ネットワークと大規模ネットワークのペアをトレーニングする場合に、パフォーマンスの大幅な改善を発見しました。
Online Passive-Aggressive Total-Error-Rate Minimization
オンラインのパッシブ-アグレッシブ合計エラー率の最小化
URL:http://arxiv.org/abs/2002.01771v1
この論文の概要(機械翻訳による和訳)
オンライン受動的攻撃的学習(PA)およびバイナリ分類のための総誤り率最小化(TER)を利用する新しいオンライン学習アルゴリズムを提供します。 PA学習は、大きなマージントレーニングだけでなく、分離不可能なデータを処理する能力も確立します。一方、TER学習は、近似分類エラーベースの目的関数を最小化します。これらの有用な特性を組み合わせたオンラインPATERアルゴリズムを提案します。さらに、データの不均衡の問題に対処する能力を向上させるために、重み付きPATERアルゴリズムも提示します。実験結果は、提案されたPATERアルゴリズムが、実世界のデータセットにある既存の最先端のオンライン学習アルゴリズムよりも効率と有効性のパフォーマンスが優れていることを示しています。
Forecasting Industrial Aging Processes with Machine Learning Methods
機械学習法による産業の老化プロセスの予測
URL:http://arxiv.org/abs/2002.01768v1
この論文の概要(機械翻訳による和訳)
産業用老化プロセス(IAP)を正確に予測することにより、メンテナンスイベントをさらに事前にスケジュールして、コスト効率の高い信頼性の高いプラントの運用を確保できます。これまでのところ、これらの劣化プロセスは通常、機構モデルまたは単純な経験的予測モデルによって記述されていました。この論文では、このタスクのより広範なデータ駆動型モデルを評価し、従来のステートレスモデル(線形およびカーネルリッジ回帰、フィードフォワードニューラルネットワーク)をより複雑なリカレントニューラルネットワーク(エコー状態ネットワークおよびLSTM)と比較します。各モデルをトレーニングするのにどれだけの歴史的データが必要かを調べるために、既知のダイナミクスを持つ合成データセットでのパフォーマンスを最初に調べます。次に、大規模な化学プラントからの実世界のデータでモデルをテストします。私たちの結果は、LSTMが十分に大きなデータセットでトレーニングされた場合にほぼ完全な予測を生成する一方で、線形モデルは条件が変わる小さなデータセットをより一般化できることを示しています。
Does the Markov Decision Process Fit the Data: Testing for the Markov Property in Sequential Decision Making
マルコフ意思決定プロセスはデータに適合していますか:逐次意思決定におけるマルコフ特性のテスト
URL:http://arxiv.org/abs/2002.01751v1
この論文の概要(機械翻訳による和訳)
マルコフ仮定(MA)は、強化学習の経験的妥当性の基本です。この論文では、逐次的な意思決定においてMAをテストするための新しいForward-BackwardLearning手順を提案します。提案されたテストは、観測データの共同分布に関するパラメトリック形式を想定せず、最適なポリシーの高次マルコフ決定プロセスと部分的に観測可能なMDPを識別するために重要な役割を果たします。合成データセットとモバイルヘルススタディの実際のデータ例の両方にテストを適用して、その有用性を示します。
A Reinforcement Learning Framework for Time-Dependent Causal Effects Evaluation in A/B Testing
A / Bテストにおける時間依存の因果効果評価のための強化学習フレームワーク
URL:http://arxiv.org/abs/2002.01711v1
この論文の概要(機械翻訳による和訳)
A / Bテスト、またはオンライン実験は、新製品を製薬、技術、および従来の業界の古い製品と比較するための標準的なビジネス戦略です。時間の経過とともに一連の治療を受けるユニットが1つしかないオンライン実験では、大きな課題が発生します。これらの実験では、ある時点での治療は現在の結果と将来の結果に影響を与えます。このペーパーの目的は、長期治療効果を特徴づけながら、A / Bテストを実施するための強化学習フレームワークを導入することです。提案されているテスト手順では、順次監視とオンライン更新が可能になるため、一般にさまざまな業界のさまざまな治療設計に適用できます。さらに、テスト手順の理論的特性(たとえば、漸近分布と検出力)を体系的に調査します。最後に、フレームワークを合成データセットとライドシェアリング会社から入手した実世界のデータ例の両方に適用して、その有用性を示します。
Semiparametric Bayesian Forecasting of Spatial Earthquake Occurrences
空間地震発生のセミパラメトリックベイズ予測
URL:http://arxiv.org/abs/2002.01706v1
この論文の概要(機械翻訳による和訳)
自励式のホークスプロセスは、時間と空間にクラスター化するイベントをモデル化するために使用され、地震型余震シーケンス(ETAS)モデルの名前で地震学で広く研究されています。 ETASフレームワークでは、地理的領域での本震地震の発生は、不均一な空間ポイントプロセスに従うと想定され、その後、別のトリガーカーネルを介して余震イベントがモデル化されます。 ETASモデルの以前のほとんどの研究は、尤度関数の複雑さ、および適切なメインショック分布の推定の難しさのために、モデルパラメータのポイント推定に依存しています。推定の不確実性を考慮に入れるために、我々は代わりに空間的主衝撃過程を捕捉する前にノンパラメトリックディリクレ過程混合を使用するETASモデルの完全ベイズ定式化を提案します。結果のモデルの直接推論は、メインショックとトリガープロセスのパラメーターの強い相関のため問題があるため、代わりに補助的な潜在変数ルーチンを使用して効率的な推論を実行します。
Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable Embeddings with Generative Priors
1ビット圧縮センシングと生成事前確率を使用したバイナリ安定埋め込みのサンプルの複雑さの範囲
URL:http://arxiv.org/abs/2002.01697v1
この論文の概要(機械翻訳による和訳)
標準の1ビット圧縮センシングの目標は、それぞれがベクトルの線形関数の符号を示すバイナリ値の測定値から未知のスパースベクトルを正確に復元することです。ジェネレーティブモデリングの仮定が通常のスパース性の仮定に置き換わる、ジェネレーティブモデルを使用した圧縮センシングの最近の進歩に動機付けられて、1ビット圧縮センシングの問題をジェネレイティブモデルで研究します。最初に、ノイズのない1ビット測定を検討し、近似回復アンダーアイ.i.d。〜ガウス測定とリプシッツ連続生成事前のサンプルの複雑さの範囲、およびほぼ一致するアルゴリズムに依存しない下限を提供します。さらに、再構成の堅牢性を測定誤差とノイズに特徴付けるBinary $ epsilon $ -Stable Embeddingプロパティは、十分に多くのガウス測定値を持つLipschitz連続生成モデルを使用した1ビット圧縮センシングにも当てはまることを実証します。さらに、結果をニューラルネットワークの生成モデルに適用し、スパース性ベースのアプローチに比べて大幅な改善を実証する概念実証の数値実験を提供します。
Entropy Minimization vs. Diversity Maximization for Domain Adaptation
ドメイン適応のためのエントロピー最小化と多様性最大化
URL:http://arxiv.org/abs/2002.01690v1
この論文の概要(機械翻訳による和訳)
エントロピー最小化は、教師なしドメイン適応(UDA)で広く使用されています。しかし、既存の研究では、エントロピーの最小化は単純なソリューションの崩壊につながる可能性があることを明らかにしています。この論文では、多様性の最大化をさらに導入することにより、些細な解決策を避けることを提案します。 UDAの可能な最小ターゲットリスクを達成するために、多様性の最大化はエントロピー最小化と精巧にバランスが取れている必要があることを示します。提案された最小エントロピーダイバーシティ最大化(MEDM)は、敵対的学習を使用せずに確率的勾配降下法によって直接実装できます。経験的証拠は、MEDMが4つの一般的なドメイン適応データセットで最先端の方法よりも優れていることを示しています。
Concept Whitening for Interpretable Image Recognition
解釈可能な画像認識のためのコンセプトホワイトニング
URL:http://arxiv.org/abs/2002.01650v1
この論文の概要(機械翻訳による和訳)
ニューラルネットワークは、レイヤーを横断するときにコンセプトについて何をエンコードしますか?機械学習の解釈可能性は間違いなく重要ですが、ニューラルネットワークの計算を理解するのは非常に困難です。隠されたレイヤーの内側を見る試みは、誤解を招く、使用できない、または潜在的なスペースに依存して、所有していない可能性のあるプロパティを所有する可能性があります。この作業では、ニューラルネットワークを事後的に分析するのではなく、コンセプトホワイトニング(CW)と呼ばれるメカニズムを導入して、ネットワークの特定のレイヤーを変更し、そのレイヤーに至るまでの計算をよりよく理解できるようにします。コンセプトホワイトニングモジュールがCNNに追加されると、潜在空間の軸を目的のコンセプトに合わせることができます。実験により、CWを使用すると、予測パフォーマンスを損なうことなく、ネットワークがレイヤー上で概念を徐々に学習する方法をより明確に理解できることがわかります。
Graph matching between bipartite and unipartite networks: to collapse, or not to collapse, that is the question
二部ネットワークと単部ネットワーク間のグラフマッチング:崩壊するか、崩壊しないか、それが問題です
URL:http://arxiv.org/abs/2002.01648v1
この論文の概要(機械翻訳による和訳)
グラフマッチングでは、ネットワーク全体で共有構造を最大化するために、2つのラベルのないグラフの頂点を整列します。この論文では、一致するグラフの1つが2部ネットワークであり、1部が1部ネットワークであるという一般的な設定に対処します。一般に、二者間ネットワークは折り畳まれるか、または一者グラフに投影され、グラフのマッチングは古典的な設定のように進みます。これは、ノイズの多いエッジ推定と情報の損失につながる可能性があります。無向グラフィカルモデルを使用して、2部グラフと1部グラフ間のグラフマッチング問題を定式化し、崩壊せずにこのモデルとのアライメントを見つける方法を紹介します。二部ネットワークを単部に変換する素朴なアプローチ、および共著者引用ネットワークペアと脳の構造的および機能的データを含む、シミュレートされたデータネットワークおよび実際のデータネットワークで達成されたパフォーマンスの向上を示します。
Simultaneous prediction and community detection for networks with application to neuroimaging
ニューロイメージングへの応用によるネットワークの同時予測とコミュニティ検出
URL:http://arxiv.org/abs/2002.01645v1
この論文の概要(機械翻訳による和訳)
ネットワークのコミュニティ構造は多くの異なるドメインで観察されており、教師なしのコミュニティ検出は文学で多くの注目を集めています。ネットワーク分析の焦点は、ネットワーク自体を分析するだけでなく、他の予測タスクや推論タスクでネットワーク情報を使用する方向にますますシフトしています。特に、神経画像アプリケーションでは、脳のネットワークは複数の被験者に利用可能であり、目的はしばしば関心のある表現型を予測することです。コミュニティ構造は脳ネットワークの特徴であることがよく知られており、通常は異なる機能を担う脳の異なる領域に対応しています。通常、健常者の脳のコネクトームにクラスタリング手法を適用することによって得られる、そのような領域への脳の標準的な分割があります。しかし、目標が表現型を予測するか、異なる状態を区別する場合、健康な被験者の無関係なセットからのこれらの静的コミュニティは予測に最も有用ではないかもしれません。ここでは、特定の応答を予測するのに最も役立つネットワークのコミュニティへのパーティションを見つけることを目的とした、監視されたコミュニティ検出の方法を示します。予測損失関数と組み合わせたブロック構造の正規化ペナルティを使用し、スペクトル法とADMM最適化アルゴリズムの組み合わせを使用してソリューションを計算します。スペクトルクラスタリング手法は、重み付き確率ブロックモデルの下で正しいコミュニティを回復することを示します。この方法は、シミュレートされた脳ネットワークと実際の脳ネットワークの両方を実行し、タスク依存の脳領域のアイデアをサポートします。
Structural Deep Clustering Network
構造的ディープクラスタリングネットワーク
URL:http://arxiv.org/abs/2002.01633v1
この論文の概要(機械翻訳による和訳)
クラスタリングは、データ分析の基本的なタスクです。最近、主にディープラーニングアプローチからインスピレーションを得たディープクラスタリングは、最先端のパフォーマンスを実現し、かなりの注目を集めています。現在のディープクラスタリング方法は、通常、ディープラーニングの強力な表現機能(たとえば、オートエンコーダー)によってクラスタリング結果を向上させ、クラスタリングの効果的な表現を学習することが重要な要件であることを示唆しています。ディープクラスタリング手法の強みは、データの構造ではなく、データ自体から有用な表現を抽出することです。これは、表現学習でほとんど注目されません。グラフ構造のエンコードにおけるグラフ畳み込みネットワーク(GCN)の大成功に動機付けられ、構造情報をディープクラスタリングに統合するための構造的ディープクラスタリングネットワーク(SDCN)を提案します。具体的には、オートエンコーダーによって学習された表現を対応するGCNレイヤーに転送する配信演算子と、これら2つの異なるディープニューラルアーキテクチャを統合し、モデル全体の更新をガイドするデュアル自己監視メカニズムを設計します。このように、低次から高次までのデータの複数の構造は、オートエンコーダによって学習された複数の表現と自然に結合されます。さらに、配信演算子を理論的に分析します。つまり、配信演算子を使用すると、GCNは高次グラフ正則化制約としてオートエンコーダー固有の表現を改善し、オートエンコーダーはGCNの過剰な平滑化問題を軽減します。包括的な実験を通して、提案モデルが常に最新の技術よりも優れた性能を発揮できることを実証します。
Improved Subsampled Randomized Hadamard Transform for Linear SVM
線形SVMの改善されたサブサンプリングランダム化アダマール変換
URL:http://arxiv.org/abs/2002.01628v1
この論文の概要(機械翻訳による和訳)
サブサンプリングされたランダム化アダマール変換(SRHT)は、$ d $次元のデータを$ O(dlog(d))$時間で$ r $次元空間($ r ll d $)に効率的に投影できる一般的なランダム投影法です。機械学習における高次元の課題に対処するために広く使用されています。 SRHTは、入力データ行列$ mathbf {X} in mathbb {R} ^ {n times d} $をRandomizedWalsh-Hadamard Transformで回転させ、続いて回転した行列で均一な列サンプリングを行うことで機能します。 SRHTの利点にもかかわらず、SRHTの1つの制限は、特定のデータセットの特定のプロパティを考慮せずに新しい低次元埋め込みを生成することです。したがって、このデータに依存しないランダム射影法は、特定の機械学習タスク、たとえば分類に使用すると、パフォーマンスが低下したり不安定になる可能性があります。この制限を克服するために、線形SVM分類のコンテキストでランダム投影にSRHTを使用する効果を分析します。分析に基づいて、重要なサンプリングと決定論的なトップ$ r $サンプリングを提案して、均一なサンプリングSRHTの代わりに効果的な低次元埋め込みを生成します。さらに、新しい教師なし不均一サンプリング法も提案しました。実験結果は、提案された方法が、6つの現実のデータセットでSRHTや他のランダム投影法よりも高い分類精度を達成できることを示しています。
Revisit to the Inverse Exponential Radon Transform
逆指数ラドン変換の再検討
URL:http://arxiv.org/abs/2002.01622v1
この論文の概要(機械翻訳による和訳)
この再訪では、数学的な関心と核医学放射イメージングなどの医療用途の両方から過去3年間で調査されてきた逆指数ラドン変換の分析方法に関する調査を行います。古典的な反転式の導出は、逆減衰ラドン変換用に開発された最近の議論によるものです。この導出により、指数パラメータを複素定数にすることができます。これは、磁気共鳴イメージングやテンソル場イメージングなどの他のアプリケーションに役立ちます。この調査には、有限ヒルベルト変換を使用して180度のデータから正確な再構築を処理する新しい手法も含まれています。 2つの実用的に重要な被験者に特別な治療が支払われました。 1つは、ハーフスキャンデータやトランケートスキャンデータなどの部分測定からの正確な再構築であり、もう1つは発散ビームデータからの再構築です。再構築におけるノイズ伝播は、数学的推論よりも発見的な議論で触れられます。いくつかの古典的な再構成アルゴリズムの数値的実現が含まれています。結論として、今後さらに調査するために、いくつかのトピックについて説明します。
Fast and Robust Comparison of Probability Measures in Heterogeneous Spaces
異質な空間での確率測定の高速でロバストな比較
URL:http://arxiv.org/abs/2002.01615v1
この論文の概要(機械翻訳による和訳)
独自のジオメトリを備えた分布を比較する問題は、さまざまな設定で発生します。グラフ、高次元の点群、形状、生成モデルを比較するとき。 Gromov Wasserstein(GW)の距離は通常、このような比較を処理するための自然なジオメトリとして提示されますが、計算にはNP困難な問題の解決が含まれます。このペーパーでは、アンカーエネルギー(AE)およびアンカーワッサーシュタイン(AW)の距離、GWに対する単純な代替案を提案します。これは、各分布の各ポイントの表現を他のすべてのポイントへの距離の1D分布として構築します。スイープラインアルゴリズムを使用して、$ O(n ^ 2 log n)$のAE emph {exactly}を計算します。ここで、$ n $は、AEの単純な実装と比較して、各メジャーのサイズです$ O(n ^ 3 )$努力。これは準線形w.r.tです。問題自体の説明。 AWは、Sinkhornアルゴリズムを実行するための$ O(n ^ 2)$コストに加えて、単一の$ n ^ 3 $の作業を保留することができます。また、コスト値ではなくランクベースの基準を使用して、AEとAWの堅牢なバージョンを提案します。実験では、AEとAWの距離は、一般的なGW近似の計算コストの何分の1かで、3D形状比較とグラフマッチングで良好に機能することを示しています。
Exploratory Machine Learning with Unknown Unknowns
未知の未知数による探索的機械学習
URL:http://arxiv.org/abs/2002.01605v1
この論文の概要(機械翻訳による和訳)
従来の教師あり学習では、トレーニングデータセットには既知のラベルセットのグラウンドトゥルースラベルが付けられ、学習したモデルは見えないインスタンスを既知のラベルに分類します。この論文では、トレーニングデータセットに他のラベルと誤解されている未知のクラスがあり、したがって、それらの存在が与えられた監督から未知である新しい問題設定を研究します。未知の未知数は、不十分な特徴情報のためにトレーニングデータセットが不完全に認識されたラベルスペースによってひどく助言されているという事実に起因します。この目的のために、探索的機械学習を提案します。これは、未知の可能性のあるラベルを発見するために、特徴空間を積極的に増強することにより、トレーニングデータセットを検査および調査します。有効性は、合成データセットと実際のデータセットの両方で検証されています。
Linearly Constrained Neural Networks
線形制約付きニューラルネットワーク
URL:http://arxiv.org/abs/2002.01600v1
この論文の概要(機械翻訳による和訳)
既知の線形制約を明示的に満たすニューラルネットワークベースのモデルを設計するアプローチを示します。これを実現するために、ターゲット関数は、基礎となる関数の線形変換としてモデル化されます。この変換は、ターゲット関数の予測が制約を満たすように保証され、既知の物理学者から、より一般的には、以前にガウス過程に対して提示された建設的な手順に従って決定できるように選択されます。このアプローチは、シミュレートされた実データの例で実証されています。
A Precise High-Dimensional Asymptotic Theory for Boosting and Min-L1-Norm Interpolated Classifiers
ブースティングおよびMin-L1-Norm補間分類器のための正確な高次元漸近理論
URL:http://arxiv.org/abs/2002.01586v1
この論文の概要(機械翻訳による和訳)
この論文では、統計的および計算的な観点から、分離可能なデータをブーストするための正確な高次元漸近理論を確立し、特徴(弱い学習者)の数pが過剰パラメーター化されたレジームでサンプルサイズnでスケーリングする設定を検討します。統計面では、アルゴリズムがトレーニングデータを補間し、経験的L1マージンを最大化する場合の、ブースティングの一般化エラーの正確な分析を提供します。ブースティングソリューションとグラウンドトゥルースの間の角度は明示的に特徴付けられます。計算面では、ブースティングが経験的L1マージンをほぼ最大化するときの停止時間の鋭い分析を提供します。さらに、マージンが大きいほど、アクティブな機能の割合が小さくなる(初期化がゼロ)ことがわかります。私たちの理論の中心には、凸幾何学からのツールを使用した最大L1マージンの詳細な研究があります。最大L1マージンは、新しい非線形方程式の新しいシステムによって正確に記述することができます。これは、新しい均一偏差引数を使用して調査します。理論の正確性を示すために、予備的な数値結果が提示されています。
ML4H Abstract Track 2019
ML4Hアブストラクトトラック2019
URL:http://arxiv.org/abs/2002.01584v1
この論文の概要(機械翻訳による和訳)
NeurIPS 2019で開催されたMachine Learning for Health(ML4H)ワークショップで受け入れられた要約のコレクション。一部の受け入れられた要約では、インクルードのオプトアウトを選択したため、このインデックスは完全ではありません。
Large Batch Training Does Not Need Warmup
大規模なバッチトレーニングにはウォームアップは不要
URL:http://arxiv.org/abs/2002.01576v1
この論文の概要(機械翻訳による和訳)
大きなバッチサイズを使用したディープニューラルネットワークのトレーニングは、有望な結果を示し、多くの実際のアプリケーションにメリットをもたらしています。ただし、オプティマイザは初期エポックでゆっくり収束し、大規模なバッチ学習の最適化ヒューリスティックと理論的根拠の間にギャップがあります。本論文では、大規模バッチトレーニングのための新しい完全な層ごとの適応レートスケーリング(CLARS)アルゴリズムを提案した。また、勾配ベースの方法の新しい細粒度分析を導入することにより、提案された方法の収束速度を分析します。段階的なウォームアップ、およびレイヤーごとの適応レートスケーリング:広範な実験により、提案されたアルゴリズムが、大きなマージンで段階的なウォームアップ手法をしのぐこと、および高度なディープニューラルネットワーク(ResNet、DenseNet 、MobileNet)。ImageNetデータセット。
Uncertainty Quantification for Bayesian Optimization
ベイズ最適化のための不確実性の定量化
URL:http://arxiv.org/abs/2002.01569v1
この論文の概要(機械翻訳による和訳)
ベイジアン最適化は、グローバル最適化手法のクラスです。それは、ガウス過程の実現として基礎となる目的関数を考慮しています。ベイジアン最適化の出力は、ガウス過程の仮定に従ってランダムですが、この不確実性の定量化は、文献ではめったに研究されていません。この作業では、目的関数の最大点または値の信頼領域を構築する観点から、ベイズ最適化アルゴリズムの出力の不確実性を評価するための新しいアプローチを提案します。これらの領域は効率的に計算でき、それらの信頼レベルは、順次ガウスプロセス回帰のために新しく開発された均一なエラー境界によって保証されます。私たちの理論は、既存のすべてのシーケンシャルサンプリングポリシーと停止基準の統一された不確実性定量化フレームワークを提供します。
DVNet: A Memory-Efficient Three-Dimensional CNN for Large-Scale Neurovascular Reconstruction
DVNet:大規模な神経血管再建のためのメモリ効率の良い3次元CNN
URL:http://arxiv.org/abs/2002.01568v1
この論文の概要(機械翻訳による和訳)
脳の微細構造のマップは、神経変性疾患などの慢性状態によって引き起こされる変化を含む、神経機能と行動を理解するために重要です。ナイフエッジ走査顕微鏡法(KESM)などの技術は、細胞内解像度での臓器全体のイメージングの可能性を提供します。ただし、マルチテラバイトのデータサイズでは、手動の注釈が非現実的で自動のセグメント化が困難になります。相互接続された微小血管ネットワークと組み合わされた高密度の細胞は、現在のセグメンテーションアルゴリズムの課題です。高スループットの顕微鏡データの膨大なサイズは、高速で主に教師なしのアルゴリズムを必要とします。このホワイトペーパーでは、ピクセル単位のセマンティックセグメンテーションのために、完全に畳み込みされた、深く、密に接続されたエンコーダーデコーダーを調査します。深くて密なネットワークでしばしば発生する過度のメモリの複雑さは、スキップ接続を使用して緩和され、パラメータが少なくなり、以前のアーキテクチャよりも大幅にパフォーマンスが向上します。提案されたネットワークは、オープンソースのベンチマークに適用されるセマンティックセグメンテーション問題の優れたパフォーマンスを提供します。細胞および微小血管のセグメンテーションのためのネットワークを最終的に実証し、臓器スケールの神経血管分析の定量的指標を有効にします。
Accelerating Psychometric Screening Tests With Bayesian Active Differential Selection
Bayesian Active Differential Selectionによる心理測定スクリーニングテストの加速
URL:http://arxiv.org/abs/2002.01547v1
この論文の概要(機械翻訳による和訳)
心理測定関数の推定のための古典的な方法は、過度の測定を必要とするか、またはターゲットの心理測定関数の低解像度近似のみを生成します。本論文では、特定の患者の心理測定関数の推定値の変化に対する迅速なスクリーニングのための新しいソリューションを提案します。ベイズのアクティブモデル選択を使用して、現在のオーディオグラムが以前のオーディオグラムと異なるかどうかを迅速に見つけることを目的に、自動化された純音オージオグラムテストを実行します。国立労働安全衛生研究所の聴力測定データを使用して、アプローチを検証します。最初の結果は、患者の聴力測定機能が2つのテストセッション間で高い信頼性で変化したかどうかをいくつかのトーンで検出できることを示しています。
A Deep Conditioning Treatment of Neural Networks
ニューラルネットワークのディープコンディショニング処理
URL:http://arxiv.org/abs/2002.01523v1
この論文の概要(機械翻訳による和訳)
ランダムに初期化されたオーバーパラメーター化されたニューラルネットワークのトレーニングにおける深度の役割を研究します。入力データの特定のカーネルマトリックスの{ em条件付け}を改善することにより、深さがニューラルネットワークのトレーナビリティを改善することを示す最初の一般的な結果を示します。この結果は、任意の非線形活性化関数に当てはまり、非線形性の程度とネットワークの深さの関数としてのコンディショニングの改善の特性評価を提供します。ニューラルタンジェントカーネルを介して、ニューラルネットワークのtoplayerだけをトレーニングするだけでなく、すべてのレイヤーをトレーニングする結果のバージョンを提供します。これらの一般的な結果の応用として、Dasらの結果の一般化を提供します。 (2019)任意の非線形活性化(穏やかな仮定の下)を持つディープランダムニューラルネットワークの学習可能性は、深さとともに指数関数的に低下することを示しています。また、Bartlett et al。 (2019b)。
Visual Concept-Metaconcept Learning
視覚的概念-メタコンセプト学習
URL:http://arxiv.org/abs/2002.01464v1
この論文の概要(機械翻訳による和訳)
人間は概念とメタコンセプトで推論します。視覚入力から赤と緑を認識します。また、オブジェクトの同じプロパティ(つまり、色)を記述することも理解しています。この論文では、画像と関連する質問と回答のペアから概念とメタコンセプトを共同学習するためのvisualconcept-metaconcept学習器(VCML)を提案します。重要なのは、視覚概念とメタ概念の間の双方向の接続を活用することです。視覚表現は、目に見えない概念のペア間の関係を予測するための基礎的な手がかりを提供します。赤と緑がオブジェクトの同じプロパティを記述することを知っているので、キューブと球体はオブジェクトの形状を分類するので、キューブと球体もオブジェクトの同じプロパティを記述するという事実に一般化します。偏ったデータも。紫色の立方体のほんのいくつかの例から、立方体の形ではなく立方体の色相に似た新しい色の紫色を理解できます。合成データセットと実世界データセットの両方の評価により、当社の主張が検証されます。
Proper Learning of Linear Dynamical Systems as a Non-Commutative Polynomial Optimisation Problem
非可換多項式最適化問題としての線形動的システムの適切な学習
URL:http://arxiv.org/abs/2002.01444v1
この論文の概要(機械翻訳による和訳)
不適切な学習として知られている非線形動的システム(LDS)の次の観測の予測、およびLDSの適切な学習として知られているシステムマトリックスの推定において、最近多くの進歩がありました。問題の非凸性にもかかわらず、最小二乗推定量への数値解のグローバル収束を保証するLDSの適切な学習へのアプローチを提示します。有望な計算結果を提示します。
A Generalized Flow for B2B Sales Predictive Modeling: An Azure Machine Learning Approach
B2B売上予測モデリングの一般化されたフロー:Azure Machine Learningのアプローチ
URL:http://arxiv.org/abs/2002.01441v1
この論文の概要(機械翻訳による和訳)
販売機会の結果を予測することは、成功するビジネス管理と収益予測の中核です。従来、この予測は、企業間(B2B)の販売意思決定のプロセスにおける主観的な人間の評価にほとんど依存してきました。ここでは、クラウドベースのコンピューティングプラットフォーム内でのB2B販売結果(勝ち/負け)の予測を可能にする実用的なMachine Learning(ML)ワークフローを提案しました:Microsoft Azure Machine Learning Service(AzureML)。このワークフローは、2つのパイプラインで構成されます:1)最適なMLモデルの自動選択とパラメーター化のための広範な機能エンジニアリング手順で強化された閉店販売機会データで確率的予測モデルを並行してトレーニングするMLパイプラインと2)最適なMLモデルを使用する予測パイプライン最適化された意思決定境界を使用して、新しい販売機会を獲得する可能性を予測し、その結果を予測します。提案されたワークフローのパフォーマンスは、B2Bコンサルティング会社の実際の販売データセットで評価されました。
Learning Task-Driven Control Policies via Information Bottlenecks
情報ボトルネックを介したタスク駆動型制御ポリシーの学習
URL:http://arxiv.org/abs/2002.01428v1
この論文の概要(機械翻訳による和訳)
このホワイトペーパーでは、豊富な感覚モダリティ(視覚や奥行きなど)を備えたロボットシステムのタスク駆動型制御ポリシーを合成する強化学習アプローチを紹介します。標準強化学習アルゴリズムは、通常、制御アクションをシステムの状態全体およびセンサーの豊富な観測値に緊密に結合するポリシーを生成します。結果として、結果として生じるポリシーは、多くの場合、状態または観測のタスクに関係のない部分の変更(たとえば、背景色の変更)に敏感になる可能性があります。対照的に、ここで紹介するアプローチは、制御アクションの計算に使用されるタスク駆動型の表現を作成することを学習します。正式には、これは、状態とタスク駆動型表現との間の情報ボトルネックを作成するポリシーグラデーションスタイルアルゴリズムを導出することによって達成されます。これにより、アクションはタスク関連情報のみに依存するように制限されます。深度画像を使用する把握タスクやRGB画像を使用するボールキャッチタスクなど、複数の例に関する徹底的なシミュレーション結果のセットでアプローチを実証します。標準のpolicygradientアプローチとの比較は、アルゴリズムによって生成されたタスク駆動型ポリシーが、センサーノイズや環境のタスクに関係のない変化に対して非常に堅牢であることを示しています。
Apportioned Margin Approach for Cost Sensitive Large Margin Classifiers
コストに敏感な大規模なマージン分類子のための割り当てられたマージンアプローチ
URL:http://arxiv.org/abs/2002.01408v1
この論文の概要(機械翻訳による和訳)
重要度の低いクラスを犠牲にして重要なクラスの感度を高めたい、コストに敏感なマルチクラス分類の問題を検討します。この問題に対処するために{ em apportioned margin}フレームワークを採用し、同じ境界を共有するクラス間の効率的なマージンシフトを可能にします。クラスのすべてのペア間の決定境界は、特定の優先順位ベクトルに従ってクラス間のマージンを分割します。これにより、重要なクラスのエラー境界がより厳しくなり、サンプル全体のエラーも減少します。フレームワークの非効率的な実装を実証することに加えて、一般化の範囲を導き出し、フィッシャーの一貫性を実証し、フレームワークをマーサーのカーネルおよび音調ネットワークに適合させ、すべてのアカウントで有望な経験的結果を報告します。
Bootstrapping a DQN Replay Memory with Synthetic Experiences
合成エクスペリエンスを使用したDQNリプレイメモリのブートストラップ
URL:http://arxiv.org/abs/2002.01370v1
この論文の概要(機械翻訳による和訳)
多くの深層強化学習アルゴリズムの重要なコンポーネントは、経験の記憶メカニズムまたはメモリとして機能する経験リプレイです。これらの経験はトレーニングに使用され、エージェントが問題空間を完全に追跡するのに役立ちます。ただし、classicExperience Replayは実際に作成したエクスペリエンスのみを使用しますが、保存されたサンプルには、抽出できる問題に関する知識という形で大きな可能性があります。学習者を支援するために、非決定的な離散環境で合成体験を作成するアルゴリズムを提示します。補間エクスペリエンスリプレイは、FrozenLake環境で評価され、エージェントがクラシックバージョンよりも速く、より良い学習をサポートできることを示します。
Introduction to quasi-open set semi-supervised learning for big data analytics
ビッグデータ分析のための準オープンセットの半教師あり学習の概要
URL:http://arxiv.org/abs/2002.01368v1
この論文の概要(機械翻訳による和訳)
最先端のパフォーマンスと低いシステムの複雑さにより、ディープラーニングは、ビッグデータ分析のためのますます魅力的なソリューションになりました。ただし、エンドツーエンドの学習体制の前提を制限すると、大規模なアプリケーショングレードのデータセットでのニューラルネットワークの使用が妨げられます。この作業は、出力クラスラベルがドメイン内のすべてのクラスに対して定義されるという仮定に対処します。現代のセンサーによって収集されるデータの量は、潜在的なクラスの理解できない範囲に及びます。したがって、我々は、すべてではないが一部のクラスのトレーニングデータのみが分類システムに関係する新しい学習体制を提案します。ビッグデータの半教師あり学習シナリオでは、ラベル付きトレーニングデータとラベルなしトレーニングデータの間の部分的なクラスの不一致の仮定が必要です。ラベルのないサンプルで示される新規クラスを分離しながら、ラベルの付いたサンプルで示されるソースクラスを分類するために必要な分類システムでは、オープンセットの場合(ソースクラスのみのクローズドセット)になります。ただし、新しいクラスのサンプルをトレーニングセットに導入すると、よりリラックスしたオープンセットのケースが示されます。そのため、 textit {準オープンセット半教師あり学習}の提案されたレジームが導入されています。 Wassersteinの生成的敵対ネットワーク(WGAN)を利用する準オープンセットの半教師あり学習の下でトレーニングする適切な方法を提案します。識別器(または批評家)ネットワーク内の訓練された分類の確実性推定を使用して、分類器の拒否オプションを有効にします。この確実性の推定にしきい値を設定することにより、拒否オプションはソースクラスの分類を受け入れ、新規クラスを拒否します。ビッグデータのエンドツーエンドのトレーニングは、入力サンプルが必ずしも出力ラベルに属しているとは限らないことを認識するモデルを開発することにより促進されます。これはビッグデータ分析に不可欠であり、準オープンセットの半教師あり学習の下でより多くの作業を促すものです。
Exploring Structural Inductive Biases in Emergent Communication
創発的コミュニケーションにおける構造的誘導バイアスの探索
URL:http://arxiv.org/abs/2002.01335v1
この論文の概要(機械翻訳による和訳)
人間の言語と思考は、馴染みのあるコンポーネント(例:単語)の有限セットから潜在的に無限の数の複雑な構造(例:文)を体系的に生成する能力によって特徴付けられます。最近の作品の創発的コミュニケーションは、協調的参照ゲームをプレイすることにより体系的に構成的な言語を開発する人工エージェントの傾向を議論しています。入力データの構造の程度は、出現した通信プロトコルの構成性に影響することがわかった。したがって、マルチエージェント通信におけるさまざまな構造上の優先事項を調査し、新しいグラフ参照ゲームを提案します。地形の類似性と一般化によって測定された入力概念の構成的理解の出現に対する構造的帰納的バイアス(バッグオブワード、シーケンス、およびグラフ)の効果を、見慣れた特性の見えない組み合わせと比較します。経験的に、グラフニューラルネットワークは、より良い構成言語を先導し、ドメイン外データへのより強い一般化を誘導することを示しています。グラフ参照ゲームで出現したプロトコルの堅牢性を示すアブレーション研究をさらに実行します。
Finite Time Analysis of Linear Two-timescale Stochastic Approximation with Markovian Noise
マルコフノイズを伴う線形2タイムスケール確率的近似の有限時間解析
URL:http://arxiv.org/abs/2002.01268v1
この論文の概要(機械翻訳による和訳)
線形2タイムスケール確率近似(SA)スキームは、特にポリシー評価問題で強化学習(RL)で一般的になった重要なアルゴリズムのクラスです。最近、特にユビキタスの慣習であるマルコフ(非i.i.d.)ノイズ設定の下で、スキームの有限時間分析を確立するために多くの研究が行われました。このペーパーでは、線形2タイムスケールSAの有限時間分析を提供します。私たちの限界は、マルコフとマルチンゲールのノイズの収束率に矛盾がないことを示しており、マルコフ連鎖の混合時間の影響を受けるのは定数のみです。適切なステップサイズのスケジュールでは、予想される誤差範囲の過渡項は$ o(1 / k ^ c)$であり、定常状態の項は$ { cal O}(1 / k)$です。ここで、$ c> 1 $および$ k $は反復数です。さらに、予想される誤差の漸近展開を、$ Omega(1 / k)$の一致する下限とともに提示します。私たちの理論をサポートするために、簡単な数値実験が提示されています。
Minimax Defense against Gradient-based Adversarial Attacks
勾配ベースの攻撃に対するミニマックス防御
URL:http://arxiv.org/abs/2002.01256v1
この論文の概要(機械翻訳による和訳)
最先端の敵対攻撃は、ニューラルネットワーク分類子を対象としています。デフォルトでは、ニューラルネットワークは損失降下関数を最小化するために勾配降下法を使用します。分類器の損失関数の勾配は、勾配に基づく敵対攻撃によって使用され、敵対的に摂動された画像を生成します。別のタイプの最適化がニューラルネットワーク分類器にエッジを与えることができるかどうかという疑問を提起します。ここでは、ミニマックス最適化を使用して、勾配ベースの敵対攻撃を阻止する新しいアプローチを紹介します。ミニマックス分類器は、GANジェネレーターでミニマックスゲームをプレイする生成的敵対ネットワーク(GAN)の識別器です。さらに、GANジェネレーターは、元の多様体が敵の攻撃の原因である可能性があるため、元の多様体とは異なる多様体にすべてのポイントを投影します。 、高速勾配標識法(FGSM)-3つのデータセット:MNIST、CIFAR-10、ドイツの交通標識(トラフィック)。 CWattacksに対して、ミニマックス防御は98.07%(MNIST-default 98.93%)、73.90%(CIFAR-10-default 83.14%)、94.54%(TRAFFIC-default 96.97%)を達成します。 DeepFoolattacksに対して、ミニマックス防御は98.87%(MNIST)、76.61%(CIFAR-10)および94.57%(トラフィック)を達成します。 FGSM攻撃に対して、97.01%(MNIST)、76.79%(CIFAR-10)、および81.41%(トラフィック)を達成しています。ミニマックスの敵対的アプローチは、ニューラルネットワーク分類子の防衛戦略に大きな変化をもたらします。
A Regression Tsetlin Machine with Integer Weighted Clauses for Compact Pattern Representation
コンパクトなパターン表現のための整数重み付き節を持つ回帰Tsetlinマシン
URL:http://arxiv.org/abs/2002.01245v1
この論文の概要(機械翻訳による和訳)
回帰Tsetlinマシン(RTM)は、最新の非線形回帰モデルを妨げる解釈可能性の欠如に対処します。これは、命題論理の連言句を使用して、データ内の基になる非線形周波数パターンをキャプチャすることによりこれを行います。これらは、合計によって連続出力に結合されますが、線形回帰関数に似ていますが、非線形成分と単一の重みがあります。 RTMは競合する精度で非線形回帰の問題を解決しましたが、出力の解像度は使用する節の数に比例します。これは、計算コストが解像度とともに増加することを意味します。この問題を軽減するために、ここでは整数の重み付きRTM句を紹介します。整数の重み付き句は、同じサブパターンをキャプチャする複数の句のコンパクトな表現です。Nrepeating句は整数の重みNで1つになります。これにより、計算コストがN倍に削減され、スパース表現によって解釈可能性が向上します。さらに、ライン上のいわゆる確率的検索を利用して、句とその重みの両方を同時に学習できる新しい学習スキームを導入します。 6つの人工データセットを使用して、整数加重RTMの可能性を経験的に評価します。結果は、整数加重RTMが通常のRTMと比較して大幅に少ない計算リソースを使用して、同等以上の精度で取得できることを示しています。さらに、整数の重みは実数値よりも精度が向上することを示しています。
Machine Learning Techniques to Detect and Characterise Whistler Radio Waves
ウィスラー電波を検出および特性化するための機械学習技術
URL:http://arxiv.org/abs/2002.01244v1
この論文の概要(機械翻訳による和訳)
雷撃は強力な電磁パルスを生成し、これにより地磁気の磁力線に沿って半球全体に超低周波(VLF)波が定期的に伝播します。 VLFアンテナレシーバーを使用して、これらの雷撃によって生成されるこれらのホイッスラー波を検出できます。受信したホイスラー波の特定の時間/周波数依存性により、磁気圏のプラズマ圏領域における電子密度の推定が可能になります。したがって、ホイッスラーの識別と特性評価は、プラズマ圏をリアルタイムで監視し、統計研究に使用されるイベントの大規模なデータベースを構築するための重要なタスクです。ホイッスラーの検出における最新技術は、Lichtenberger(2009)によって開発された自動ホイスラー検出(AWD)メソッドです。この方法は、2次元の画像相関に基づいており、VLF受信アンテナ(南極など)に配置された重要なコンピューティングハードウェアを必要とします。この作業の目的は、VLF受信機によって提供されるデータ内のホイッスラーを自動的に検出できる機械学習ベースのモデルを開発することです。アプローチは、VLFreceiversによって生成されたスペクトログラムデータで画像分類とローカリゼーションの組み合わせを使用して、各ウィスラーを特定およびローカライズすることです。現在のデータには、AAEがSANAEとマリオンで特定した約2300のイベントがあり、トレーニング、検証、およびテストデータとして使用されます。 3つの検出器設計が提案されています。最初はAWDと同様の方法を使用し、2番目はスペクトログラムから抽出した関心領域の画像分類を使用し、最後はオブジェクト検出の最新技術であるYOLOを使用します。これらの検出器は、onMarionのデータセットで15%未満の誤検出と誤警報を達成できることが示されています。
ALPINE: Active Link Prediction using Network Embedding
ALPINE:ネットワーク埋め込みを使用したアクティブリンク予測
URL:http://arxiv.org/abs/2002.01227v1
この論文の概要(機械翻訳による和訳)
多くの実際の問題は、部分的に観測されたネットワーク内のリンクを予測するものとして形式化できます。例には、Facebookの友情の提案、消費者製品の推奨事項、犯罪ネットワーク内の関係者間の隠れた相互作用の識別が含まれます。いくつかのリンク予測アルゴリズム、特にネットワーク埋め込みを使用して最近導入されたものは、ネットワークの観測された部分に依存するだけでこれを行うことができます。多くの場合、アノードペアのリンクステータスを照会できます。これは、リンク予測アルゴリズムによって追加情報として使用できます。残念ながら、そのようなクエリは高価または時間がかかる可能性があり、どのノードペアをクエリするかを慎重に検討する必要があります。本論文では、特定のノードペアをクエリした後のリンク予測精度の改善を推定し、アクティブ学習設定で使用します。具体的には、ネットワーク埋め込みに基づいたリンク予測のためにこれを達成する最初の方法であるALPINE(ネットワークリンクを使用したアクティブリンク予測)を提案します。この目的のために、実験設計からこの設定までのV最適性の概念を一般化したほか、標準の分類設定で最初に開発されたより基本的なアクティブ学習ヒューリスティックを使用しました。実際のデータの実証結果は、ALPINEがスケーラブルであり、はるかに少ないクエリでリンクの予測精度を高めることを示しています。
Selfish Robustness and Equilibria in Multi-Player Bandits
マルチプレイヤー盗賊の利己的なロバストネスと均衡
URL:http://arxiv.org/abs/2002.01197v1
この論文の概要(機械翻訳による和訳)
コグニティブラジオに動機付けられた、確率的マルチプレイヤーマルチアームバンディットは、最近多くの関心を集めました。このクラスの問題では、数人のプレーヤーが同時に腕を引っ張り、同じ腕を同時に引いた場合、報酬が0の衝突に遭遇します。プレイヤーが集団報酬を最大化する協力的なケース(いくつかの固定プロトコルに従うこと)が主に検討されてきましたが、悪意のあるプレイヤーに対する堅牢性は重大で挑戦的な懸念です。既存のアプローチは、集団報酬を盲目的に最小化することを目的とする敵対的な妨害者の場合のみを考慮している。代わりに、潜在的に社会福祉を犠牲にして個々の報酬を最大化するインセンティブを持つ、より自然な利己的なプレーヤーのクラスを検討します。私たちは、腕の報酬が観察されるときに、対数的な後悔を持つ利己的なプレーヤー(別名ナッシュ均衡)にロバストな最初のアルゴリズムを提供します。衝突も観察される場合、Grim Triggerタイプの戦略はいくつかの暗黙的な通信ベースのアルゴリズムを有効にし、2つの異なる設定でロバストなアルゴリズムを構築します:同種の場合(集中化された最適なものに後悔がある場合)および異種の場合(適合し関連する場合)後悔の概念)。また、報酬のみが観察される場合、またはプレイヤー間で腕の平均が任意に異なる場合、不可能な結果を提供します。
tfp.mcmc: Modern Markov Chain Monte Carlo Tools Built for Modern Hardware
tfp.mcmc:最新のハードウェア向けに構築された最新のマルコフ連鎖モンテカルロツール
URL:http://arxiv.org/abs/2002.01184v1
この論文の概要(機械翻訳による和訳)
マルコフ連鎖モンテカルロ法(MCMC)は、20世紀で最も重要なアルゴリズムの1つとして広く認識されています。正規化されていない確率関数のみを使用した漸近収束、安定性、および推定変数分散境界の保証により、確率的プログラミングに不可欠です。このペーパーでは、TensorFlow Probability MCMCツールキットを紹介し、その設計の動機付けとなった考慮事項のいくつかについて説明します。
Learning bounded subsets of $L_p$
$ L_p $の有界サブセットの学習
URL:http://arxiv.org/abs/2002.01182v1
この論文の概要(機械翻訳による和訳)
基礎となるクラスが$ L_p $の有界サブセットであり、ターゲット$ Y $が$ L_p $に属する学習問題を研究します。以前は、ミニマックスのサンプルの複雑さの推定は、$ p = infty $の場合にのみ、このような有界性の仮定の下で知られていました。任意の$ p> 4 $に当てはまる鋭いサンプル複雑度の推定値を提示します。これは、重い問題に適した学習手順に基づいています。
Robust Generative Restricted Kernel Machines using Weighted Conjugate Feature Duality
重み付き共役機能の双対性を使用した堅牢な生成制限付きカーネルマシン
URL:http://arxiv.org/abs/2002.01180v1
この論文の概要(機械翻訳による和訳)
過去10年間で、生成モデルへの関心が非常に高まっていますが、トレーニングのパフォーマンスは汚染によって大きく影響を受ける可能性があり、外れ値はモデルの表現にエンコードされます。これにより、ノイズの多いデータが生成されます。この論文では、制限付きカーネルマシン(RKM)のフレームワークに、重み付き共役機能の双対性を導入します。この定式化は、最小共分散決定要因に基づく重み関数を使用して生成RKMの潜在空間を微調整するために使用されます。実験により、トレーニングデータに汚染が存在する場合、重み付けされたRKMがきれいな画像を生成できることが示されています。さらに、堅牢な方法は、標準データセットの定性的および定量的実験を通じて、相関のない特徴学習も維持することを示しています。
Towards a Fast Steady-State Visual Evoked Potentials (SSVEP) Brain-Computer Interface (BCI)
高速定常状態視覚誘発電位(SSVEP)脳コンピュータインターフェイス(BCI)に向けて
URL:http://arxiv.org/abs/2002.01171v1
この論文の概要(機械翻訳による和訳)
定常状態視覚誘発電位(SSVEP)脳-コンピューターインターフェース(BCI)は、信頼性の高い応答を提供し、高精度と情報スループットを実現します。ただし、通常、高精度を実現するには、1秒以上の比較的長い時間枠が必要です。さまざまな方法が提案され、サブジェクト固有のトレーニングとキャリブレーションによりサブセカンドの応答精度が改善されました。ユーザーの不快感をもたらします。そこで、空間フィルタリングと時間アラインメント(CSTA)を組み合わせて、1秒未満の応答時間でSSVEP応答を認識することにより、トレーニング不要の方法を提案します。 CSTAは、安定した状態の応答と補完的な融合による刺激テンプレート間の線形相関と非線形類似性を活用して、望ましいパフォーマンスの向上を実現します。 2つのSSVEPデータセットを使用したトレーニングベースの方法とトレーニングなしの方法の両方と比較して、精度と情報転送速度(ITR)の観点からCSTAのパフォーマンスを評価しました。 CSTAは、オフライン分析の1秒未満の応答時間で、それぞれ4クラスと40クラスのSSVEPデータセットで最大平均精度97.43 $ pm $ 2.26%および85.71 $ pm $ 13.41%を達成することを観察しました。 CSTAは、両方のデータセットでトレーニングなしの方法よりも有意に高い平均パフォーマンス(p <0.001)をもたらします。トレーニングベースの方法と比較して、CSTAは0.5秒未満の時間ウィンドウで統計的に有意な差がある29.33 $ pm $ 19.65%高い平均精度を示しています。長時間のウィンドウでは、CSTAはトレーニングベースの方法よりも統計的に有意ではありませんが、優れたパフォーマンスまたは同等のパフォーマンスを示します。提案された方法は、サブセカンドの応答時間で高いターゲット認識性能を可能にしつつ、トレーニングを必要とせずに被験者に依存しないSSVEP分類の利点をもたらすことを示します。
Graph Representation Learning via Graphical Mutual Information Maximization
グラフィカルな相互情報最大化によるグラフ表現学習
URL:http://arxiv.org/abs/2002.01169v1
この論文の概要(機械翻訳による和訳)
ソーシャルネットワークや通信ネットワークなどのさまざまな情報ネットワークのコンテンツの豊富さは、外部の監督なしで高品質の表現表現を学習するための前例のない可能性を提供します。マナー。この目的のために、入力グラフと高レベルの隠された表現の間の相関を測定するために、新しい概念であるグラフィカル相互情報(GMI)を提案します。 GMIは、ノードの特徴とトポロジ構造の2つの側面からの相互情報の測定が不可欠である、ベクトル空間からグラフドメインへの従来の相互情報計算の概念を一般化します。 GMIにはいくつかの利点があります。まず、入力グラフの同型変換に不変です。これは、多くの既存のグラフ表現学習アルゴリズムで避けられない制約です。また、MINEなどの現在の相互情報推定方法により、効率的に推定および最大化できます。最後に、理論的分析により、その正当性と合理性が確認されます。 GMIを使用して、agraphニューラルエンコーダーの入力と出力の間でGMIを最大化することにより訓練された教師なし学習モデルを開発します。トランスダクティブおよびインダクティブノードの分類とリンク予測に関するかなりの実験により、この方法が最先端の監視なしの対応物よりも優れており、監視付きの方法の性能を超えることさえあることが実証されています。
On Positive-Unlabeled Classification in GAN
GANの正のラベルなし分類について
URL:http://arxiv.org/abs/2002.01136v1
この論文の概要(機械翻訳による和訳)
このペーパーでは、標準のGANのラベル付けされていない正の分類問題を定義します。これにより、GANの弁別器のトレーニングを安定させるための新しい手法が得られます。伝統的に、実際のデータは正であるとみなされ、生成されたデータは負であるとみなされます。この正負の分類基準は、生成されたデータの品質が徐々に改善されることを考慮せずに、識別器の学習プロセス全体を通じて固定されたままでした。対照的に、生成されたデータをラベルなしとして扱う方が合理的です。ラベル付けされていないデータは、品質に応じて正または負になる可能性があります。したがって、識別器は、この正のラベルなし分類問題の分類子であり、newPositive-Unlabeled GAN(PUGAN)を導出します。理論的には、提案されたモデルが達成するグローバルな最適性と同等の最適化の目標について議論します。
Decoupling Learning Rates Using Empirical Bayes Priors
経験的ベイズ事前分布を使用した学習率の分離
URL:http://arxiv.org/abs/2002.01129v1
この論文の概要(機械翻訳による和訳)
この作業では、一般化線形モデルで1次および2次の特徴(または他の特徴グループ化)の学習率を分離するための経験的ベイズアプローチを提案します。このようなニーズは、小バッチまたはトラフィックの少ないケースで発生します。一次の特徴は結果により顕著な影響を与える可能性が高いため、一次の重みを最初に学習することに焦点を合わせると、パフォーマンスと収束時間が改善される可能性があります。経験的ベイズ法は、各グループの機能をまとめてクランプし、展開されたモデルの観測データを使用して、後知恵で階層的事前を経験的に計算します。この方法は、標準の分類設定と、Amazon生産システムのコンテキストバンディット設定に適用されます。シミュレーションとライブ実験の両方で、特に小トラフィックの場合に、この方法は顕著な改善を示しています。スパースデータの最適化はしばしば困難であるため、調査結果は有望です。さらに、このアプローチは、ベイジアンフレームワークとしてモデル化された問題のインスタンスに適用できます。
Improving Efficiency in Large-Scale Decentralized Distributed Training
大規模な分散型分散トレーニングの効率の改善
URL:http://arxiv.org/abs/2002.01119v1
この論文の概要(機械翻訳による和訳)
分散型並列SGD(D-PSGD)とその非同期バリアントAsynchronousParallel SGD(AD-PSGD)は、大規模な深層学習タスクで適切に機能することが実証されている分散学習アルゴリズムのファミリです。 (A)D-PSGDの欠点の1つは、システム内の学習者の数が増えると混合行列のスペクトルギャップが減少し、収束が妨げられることです。本論文では、通信コストを最小限に抑えながらスペクトルのギャップ。 2000時間のSwitchboard音声認識タスクとImageNet computervisionタスクで実験を実行することにより、提案された手法の有効性を実証します。 IBM P9スーパーコンピューターでは、Hub5-2000 Switchboard(SWB)テストセットで7.5%WER、64 V100 GPUを使用するCallHome(CH)テストセットで13.3%WERで、2.28時間でLSTMacousticモデルをトレーニングできます。 SWBで7.7%WER、128 V100 GPUを使用したCHで13.3%WERの1.98時間で、これまでに報告された最速のトレーニング時間です。
Efficient Riemannian Optimization on the Stiefel Manifold via the Cayley Transform
Cayley変換を介したStiefel多様体上の効率的なリーマン最適化
URL:http://arxiv.org/abs/2002.01113v1
この論文の概要(機械翻訳による和訳)
パラメーター行列に正規直交性制約を厳密に適用することは、深層学習で有利であることが示されています。これは、スティーフェル多様体でのリーマン最適化に相当しますが、計算コストが高くなります。この課題に対処するために、2つの主要な貢献を提示します。(1)最適化更新のための反復Cayley変換に基づく新しい効率的なリトラクションマップ、および(2)運動量の射影とCayley変換スティーフェル多様体。 2つの新しい最適化アルゴリズムを指定します:勢いのあるCayley SGDと、Stiefel多様体上のCayleyADAM。 Cayley SGDの収束は理論的に分析されています。 CNNトレーニングの実験では、両方のアルゴリズムが次のことを実証しています。 (b)CNNのパフォーマンスを損なうことなく、ベースラインSGDおよびADAMアルゴリズムよりも速い収束率を実現します。 Cayley SGDおよびCayley ADAMは、RNNのユニタリ遷移行列を最適化するためのトレーニング時間を短縮することも示されています。
Efficient, Noise-Tolerant, and Private Learning via Boosting
ブースティングによる効率的で耐ノイズ性のあるプライベート学習
URL:http://arxiv.org/abs/2002.01100v1
この論文の概要(機械翻訳による和訳)
プライベートブースティングアルゴリズムを設計するためのシンプルなフレームワークを紹介します。これらのアルゴリズムが差別的にプライベートで、効率的で、ノイズ耐性のあるPAC学習者である自然条件を免れます。フレームワークを実証するために、サンプルの複雑度が次元に依存しない大きなマージンの半空間に対してノイズ耐性およびプライベートPAC学習器を構築するために使用します。大マージンハーフスペース学習器に2つのサンプルの複雑さの境界を与えます。1つの境界は微分プライバシーのみに基づいており、この保証を一般化を保証するための資産として使用します。この最初の境界は、プライバシーからPAC学習者を取得するための一般的な方法論を示しています。 2番目の境界では、マージンの大きい分類の理論(脂肪粉砕次元)からの標準的な手法を使用して、マージンの大きい半空間の差分プライベート学習のための最もよく知られているサンプルの複雑さに一致し、さらにランダムラベルノイズを許容します。
On the interaction between supervision and self-play in emergent communication
緊急コミュニケーションにおける監督と自己遊びの相互作用について
URL:http://arxiv.org/abs/2002.01093v1
この論文の概要(機械翻訳による和訳)
自然言語を使用するように人工エージェントを教えるための有望なアプローチは、ヒューマンインザループトレーニングの使用を伴います。ただし、最近の研究では、現在の機械学習方法はデータ効率が悪いため、この方法でゼロからトレーニングすることはできません。この論文では、サンプル効率を改善するという究極の目標で、学習信号の2つのカテゴリ間の関係を調査します:教師あり学習による人間の言語データの模倣、およびセルフプレイによる(シミュレートされたコミュニケーションとしての)シミュレートされたマルチエージェント環境での報酬の最大化これらの信号の両方を使用するアルゴリズムに、監視付きセルフプレイ(S2P)という用語を導入します。私たちは、人間のデータの教師付き学習による最初のトレーニングエージェントとそれに続く自己再生のパフォーマンスが優れていることを発見しました。次に、2つの環境での教師あり学習から始まるさまざまなS2Pスケジュールを経験的に調査します:シンボリック入力を使用したLewis信号ゲームと、自然言語記述を使用した画像ベースの参照ゲーム最後に、S2Pへの人口ベースのアプローチを導入し、単一のパフォーマンスをさらに向上させます-agentメソッド。
On the Sample Complexity and Optimization Landscape for Quadratic Feasibility Problems
二次実現可能性問題のためのサンプルの複雑さと最適化ランドスケープについて
URL:http://arxiv.org/abs/2002.01066v1
この論文の概要(機械翻訳による和訳)
$ m $の二次測定値$ { langle A_i mathbf {x}、 mathbf {x} rangleから複雑なベクトル$ mathbf {x} in mathbb {C} ^ n $を復元する問題を検討します。 } _ {i = 1} ^ m $。二次実現可能性として知られるこの問題は、よく知られた位相回復問題を含み、電力システムの状態推定やX線結晶学を含む広範囲の重要な分野に応用されています。一般に、二次の実行可能性の問題はNPの解決が難しいだけでなく、実際には特定できない場合があります。この論文では、この問題が{identifiable}になる条件を確立し、さらにmatrix $ {A_i } _ {i = 1} ^ m $が複素ガウス分布からサンプリングされたエルミート行列である場合のアイソメトリ特性を証明します。さらに、この問題の非凸{最適化}定式化を調査し、任意の初期化を伴う勾配アルゴリズムが emph {グローバルに最適な}ポイントに高い確率で収束できるようにする関連する最適化ランドスケープの顕著な特徴を確立します。また、これらのコンテキストで実現可能なソリューションを特定するためのサンプルの複雑さの要件も明らかになりました。
Transfer Learning for HVAC System Fault Detection
HVACシステム障害検出のための転送学習
URL:http://arxiv.org/abs/2002.01060v1
この論文の概要(機械翻訳による和訳)
HVACシステムの障害は、建物の熱的快適性とエネルギー効率を低下させ、データドリブン方式が人気を集めているため、研究コミュニティから大きな注目を集めています。しかし、正常な動作状態と障害のある動作状態などのラベル付きデータがないため、HVACシステムへの機械学習の適用が遅くなっています。さらに、特定の建物については、トレーニングのために妥当な時間内に観察される障害の数が不十分な場合があります。これらの課題を克服するために、通常の操作と障害のある操作を区別するように設計された新しいベイジアン分類器の転送方法を提示します。重要なのは、大量のセンサーと障害データ(たとえば、シミュレーションまたは標準テストデータ)を使用して建物でこの分類器をトレーニングし、新しい建物からの少量の通常の運用データを使用して分類器を新しい建物に転送することです。異なる気候の建築的に類似した建物間で分類子を転送するための概念実証であり、分類精度とリコールを維持するために必要なサンプルはほとんどありません。