2020年02月07日に発表された機械学習分野の論文67本のAbstractをまとめて和訳しました。
この記事の見出し
- 1 Optimal Adaptive Matrix Completion
- 2 Normalizing Flows on Tori and Spheres
- 3 How Good is the Bayes Posterior in Deep Neural Networks Really?
- 4 Regret analysis of the Piyavskii-Shubert algorithm for global Lipschitz optimization
- 5 Product Kanerva Machines: Factorized Bayesian Memory
- 6 End-to-End Models for the Analysis of Pupil Size Variations and Diagnosis of Parkinson’s Disease
- 7 Macroscopic Traffic Flow Modeling with Physics Regularized Gaussian Process: A New Insight into Machine Learning Applications
- 8 Value of Information Analysis via Active Learning and Knowledge Sharing in Error-Controlled Adaptive Kriging
- 9 Near-optimal Reinforcement Learning in Factored MDPs: Oracle-Efficient Algorithms for the Non-episodic Setting
- 10 Fair Correlation Clustering
- 11 Using generative adversarial networks to synthesize artificial financial datasets
- 12 Uncovering differential equations from data with hidden variables
- 13 AI-GAN: Attack-Inspired Generation of Adversarial Examples
- 14 A Neural Approach to Ordinal Regression for the Preventive Assessment of Developmental Dyslexia
- 15 Neural Network Representation Control: Gaussian Isolation Machines and CVC Regularization
- 16 LUNAR: Cellular Automata for Drifting Data Streams
- 17 Bridging Ordinary-Label Learning and Complementary-Label Learning
- 18 Fixed smooth convolutional layer for avoiding checkerboard artifacts in CNNs
- 19 Unbalanced GANs: Pre-training the Generator of Generative Adversarial Network using Variational Autoencoder
- 20 Privacy-Preserving Boosting in the Local Setting
- 21 Faster On-Device Training Using New Federated Momentum Algorithm
- 22 Secure Social Recommendation based on Secret Sharing
- 23 Minimizing Dynamic Regret and Adaptive Regret Simultaneously
- 24 Minimax Confidence Interval for Off-Policy Evaluation and Policy Optimization
- 25 On Geometry of Information Flow for Causal Inference
- 26 Truncated Hilbert Transform: Uniqueness and a Chebyshev Polynomial Expansion Approach
- 27 Finite Hilbert Transform in Weighted L2 Spaces
- 28 A Feedback Shift Correction in Predicting Conversion Rates under Delayed Feedback
- 29 No-Regret Prediction in Marginally Stable Systems
- 30 Robust Boosting for Regression Problems
- 31 Few-Shot Learning as Domain Adaptation: Algorithm and Analysis
- 32 Supervised Learning on Relational Databases with Graph Neural Networks
- 33 Extracting dispersion curves from ambient noise correlations using deep learning
- 34 A Deterministic Streaming Sketch for Ridge Regression
- 35 Nested Barycentric Coordinate System as an Explicit Feature Map
- 36 A mean-field theory of lazy training in two-layer neural nets: entropic regularization and controlled McKean-Vlasov dynamics
- 37 Mutual Information-based State-Control for Intrinsically Motivated Reinforcement Learning
- 38 Over-the-Air Adversarial Attacks on Deep Learning Based Modulation Classifier over Wireless Channels
- 39 FastGAE: Fast, Scalable and Effective Graph Autoencoders with Stochastic Subgraph Decoding
- 40 Deep RBF Value Functions for Continuous Control
- 41 Locally-Adaptive Nonparametric Online Learning
- 42 Wasserstein Exponential Kernels
- 43 $ε$-shotgun: $ε$-greedy Batch Bayesian Optimisation
- 44 Near-Optimal Algorithms for Minimax Optimization
- 45 Understanding the Decision Boundary of Deep Neural Networks: An Empirical Study
- 46 Sharpe Ratio in High Dimensions: Cases of Maximum Out of Sample, Constrained Maximum, and Optimal Portfolio Choice
- 47 Proximity Preserving Binary Code using Signed Graph-Cut
- 48 Feature-map-level Online Adversarial Knowledge Distillation
- 49 Online Passive-Aggressive Total-Error-Rate Minimization
- 50 Forecasting Industrial Aging Processes with Machine Learning Methods
- 51 Does the Markov Decision Process Fit the Data: Testing for the Markov Property in Sequential Decision Making
- 52 A Reinforcement Learning Framework for Time-Dependent Causal Effects Evaluation in A/B Testing
- 53 Semiparametric Bayesian Forecasting of Spatial Earthquake Occurrences
- 54 Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable Embeddings with Generative Priors
- 55 Entropy Minimization vs. Diversity Maximization for Domain Adaptation
- 56 Concept Whitening for Interpretable Image Recognition
- 57 Graph matching between bipartite and unipartite networks: to collapse, or not to collapse, that is the question
- 58 Simultaneous prediction and community detection for networks with application to neuroimaging
- 59 Structural Deep Clustering Network
- 60 Improved Subsampled Randomized Hadamard Transform for Linear SVM
- 61 Revisit to the Inverse Exponential Radon Transform
- 62 Fast and Robust Comparison of Probability Measures in Heterogeneous Spaces
- 63 Exploratory Machine Learning with Unknown Unknowns
- 64 Linearly Constrained Neural Networks
- 65 Fine-Grained Urban Flow Inference
- 66 A Precise High-Dimensional Asymptotic Theory for Boosting and Min-L1-Norm Interpolated Classifiers
- 67 ML4H Abstract Track 2019
Optimal Adaptive Matrix Completion
最適な適応行列の完成
URL:http://arxiv.org/abs/2002.02431v1
この論文の概要(機械翻訳による和訳)
ランクrの$ m times n $サイズの行列の正確な補完の問題を、適応サンプリング法で研究します。 exactcompletion問題と列および行スペースの最も疎なベクトル(ここではスパース数と呼びます)との関係を紹介します。この関係を使用して、ターゲットマトリックスを正確に回復するマトリックス補完アルゴリズムを提案します。これらのアルゴリズムは、2つの重要な点で以前の作品よりも優れています。まず、アルゴリズムは-$ mathcal {O}( mu_0 rn mathrm {log} frac {r}よりもはるかに小さい観測複雑度を使用して、少なくとも$ 1- epsilon $の確率で$ mu_0 $ -coherent列空間行列を正確に回復します。 { epsilon})$-最先端技術。具体的には、従来の適応型サンプリング手法の多くは、列空間が高度にコヒーレントな場合、マトリックス全体を観察する必要があります。ただし、多くのシナリオでエントリのごく一部を観察することで、この方法でもこのタイプの行列を復元できることを示しています。第二に、行または列のスペースが高度にコヒーレントではないため、最小限の事前情報を必要とする完全補完アルゴリズムを提案します。スパースランダムノイズに対してロバストなこれらのアルゴリズムの拡張機能を提供します。さらに、列空間の形状を適応的に研究することにより、小さなノイズに対してロバストな追加の低ランク推定アルゴリズムを提案します。論文の最後に、ここで提案するアルゴリズムの強さを示す実験結果を提供します。
Normalizing Flows on Tori and Spheres
トーラスと球上の流れの正規化
URL:http://arxiv.org/abs/2002.02428v1
この論文の概要(機械翻訳による和訳)
フローの正規化は、高次元で表現力豊かな分布を構築するための強力なツールです。これまでのところ、ほとんどの文献はユークリッド空間の学習フローに集中しています。ただし、角度が関係する問題など、いくつかの問題は、トーラス球などのより複雑な形状の空間で定義されます。本論文では、そのような空間での表現力豊かで数値的に安定したフローを提案し、比較します。私たちの流れは、円、閉じた間隔または球上の流れから始まり、空間の次元で再帰的に構築されます。
How Good is the Bayes Posterior in Deep Neural Networks Really?
ディープニューラルネットワークのベイズ後部は本当にどれくらい良いのでしょうか?
URL:http://arxiv.org/abs/2002.02405v1
この論文の概要(機械翻訳による和訳)
過去5年間、ベイジアン深層学習コミュニティは、深層ニューラルネットワークでのベイジアン推論を可能にする、ますます正確かつ効率的な近似推論手順を開発してきました。しかし、このアルゴリズムの進歩と不確実性の定量化とサンプル効率の改善の見込みにもかかわらず、2020年初頭の時点では、産業実践におけるベイジアンニューラルネットワークの公開された展開はありません。この作業では、人気のあるディープニューラルネットワークにおけるベイズの後継者の現在の理解に疑問を投げかけています。注意深いMCMCサンプリングを通じて、ベイズの事後によって誘導される事後予測が、SGDから取得したポイント推定を含む単純な方法と比較して、体系的に悪い予測をもたらすことを実証します。さらに、エビデンスを過大評価する「コールドポステリア」を使用することで、予測パフォーマンスが大幅に向上することを実証します。このような冷たい後代は、ベイジアンのパラダイムから急激に逸脱しますが、一般にベイジアンの深層学習論文の発見的手法として使用されます。私たちは、寒い後継者を説明し、実験を通じて仮説を評価できるいくつかの仮説を提唱しました。私たちの仕事は、ベイジアン深層学習における正確な事後近似の目標に疑問を投げかけます。真のベイズ事後が不十分な場合、より正確な近似の使用は何ですか?代わりに、コールドポスティリアのパフォーマンスの向上の起源を理解することに焦点を合わせるのがタイムリーであると主張します。
Regret analysis of the Piyavskii-Shubert algorithm for global Lipschitz optimization
グローバルなリプシッツ最適化のためのPiyavskii-Shubertアルゴリズムの後悔分析
URL:http://arxiv.org/abs/2002.02390v1
この論文の概要(機械翻訳による和訳)
コンパクトな領域で非凹型のリプシッツ多変量関数fを最大化する問題を考えます。 1972年にPiyavskiiとShubertによって最初に設計された非常に自然なアルゴリズムに対して、後悔の保証(つまり、最適化誤差の範囲)を提供します。特に、fが正確に観測されたときと、評価が独立したサブガウスノイズによって摂動されたときの両方で、最先端の後悔の境界をもたらします。
Product Kanerva Machines: Factorized Bayesian Memory
製品Kanervaマシン:因数分解ベイジアンメモリ
URL:http://arxiv.org/abs/2002.02385v1
この論文の概要(機械翻訳による和訳)
認知にヒントを得た理想的なメモリシステムは、着信アイテムを圧縮して整理します。 Kanerva Machine(Wu et al、2018)は、オンラインメモリ圧縮を自然に実装するベイジアンモデルです。ただし、カネルバマシンの構成は、ストレージ用の単一のガウスランダムマトリックスの使用によって制限されます。ここでは、多くの小さなKanervaマシンを動的に組み合わせた製品Kanervaマシンを紹介します。その階層構造は、不変の機能を抽象化するための原理的な方法を提供し、単一のKanervaマシンに比べてスケーリングと容量の利点を提供します。教師なしクラスタリングを示し、スパースおよびコンビナトリアル割り当てパターンを見つけ、オブジェクトごとに単純な画像を近似的に分解する空間チューニングを発見できることを示します。
End-to-End Models for the Analysis of Pupil Size Variations and Diagnosis of Parkinson’s Disease
瞳孔サイズの変動とパーキンソン病の診断の分析のためのエンドツーエンドモデル
URL:http://arxiv.org/abs/2002.02383v1
この論文の概要(機械翻訳による和訳)
アイトラッカーを使用して記録された瞳孔サイズの変動の体系的な分析は、被験者の認知状態に関する豊富な情報源であることはよく知られています。この作業では、生の瞳孔サイズ信号に基づいたパーキンソン病(PD)の診断のためのエンドツーエンドモデルを提示します。 21人の健康な被験者と15人の被験者がPDと診断されました。 1次元畳み込みニューラルネットワークモデルは、短距離シーケンス(10から60秒の登録)の分類のために訓練されています。このモデルは、ホールドアウトテストセットで高い平均精度の予測を提供します。モデルのパフォーマンスの一時的な分析により、安静時のPDと健常者の瞳孔の大きさの変動を特徴付けることができました。データセットとコードは、再現性とベンチマークの目的でリリースされています。
Macroscopic Traffic Flow Modeling with Physics Regularized Gaussian Process: A New Insight into Machine Learning Applications
物理学正規化ガウス過程による巨視的な交通流モデリング:機械学習アプリケーションへの新しい洞察
URL:http://arxiv.org/abs/2002.02374v1
この論文の概要(機械翻訳による和訳)
機械学習(ML)技術の最近のトラフィックフローモデリングの広範な実装にもかかわらず、これらのデータ駆動型のアプローチは、データセットが小さいかノイズの多い場合に精度が不足することがよくあります。この問題に対処するために、この研究では、物理正則化機械学習(PRML)という名前の新しいモデリングフレームワークを提示し、古典的な交通流モデル(物理モデルと呼ばれる)をMLアーキテクチャにエンコードし、MLトレーニングプロセスを正則化します。正規化ガウス過程(PRGP)モデルが開発され、PRGPの平均とカーネルを推定するためにベイジアン推論アルゴリズムが使用されます。巨視的な交通流モデルに基づいた物理的正則化装置も開発され、シャドウGPを介して推定を補強し、物理的知識を確率過程にエンコードするために強化された潜在力モデルが使用されます。事後正則化推論フレームワークに基づいて、システム尤度の下限の証拠を最大化する効率的な確率的最適化アルゴリズムも開発されています。提案されたモデルの有効性を証明するために、この論文では、U-15のI-15高速道路から収集された面積世界データセットに関する実証的研究を行っています。結果は、新しいPRGPモデルが、較正された純粋な物理的モデルと純粋な機械学習方法、推定精度、入力の堅牢性。
Value of Information Analysis via Active Learning and Knowledge Sharing in Error-Controlled Adaptive Kriging
エラー制御適応クリギングにおける能動学習と知識共有による情報分析の価値
URL:http://arxiv.org/abs/2002.02354v1
この論文の概要(機械翻訳による和訳)
関心のある多くの現象の大きな不確実性は、関連する決定の信頼性に挑戦しています。情報の価値(VoI)分析は、新しいデータの予想される潜在的な利点を定量化し、情報収集のためのリソースの最適な割り当てを支援する数学的決定フレームワークです。ただし、VoI分析に直面する主な課題は、特に平等タイプの情報の場合、基礎となるベイジアン推論の計算コストが非常に高いことです。このペーパーでは、VoI分析のための最初のサロゲートベースのフレームワークを提案します。代理モデルベースの信頼性手法で一般的に追求されている、意思決定に関心のあるイベントを記述する限界状態関数をモデル化する代わりに、提案されたフレームワークはシステム応答をモデル化します。このアプローチにより、代理モデル間での観測から、関心のある複数のイベントの尤度を更新するための平等タイプの情報を共有できます。さらに、モデルとトレーニングポイントの共有と呼ばれる2つの知識共有スキームが、コストのかかるモデル評価によって提供される知識を最も効果的に活用するために提案されています。両方のスキームは、正確なクリギング代用モデルを効率的に生成するために、エラー率ベースの適応トレーニングアプローチと統合されています。提案されたVoI分析フレームワークは、トラス橋の負荷テストを含む最適な意思決定問題に適用されます。重要性サンプリングと適応クリギングモンテカルロシミュレーションに基づく最先端の方法ではこの問題を解決できませんが、提案された方法は、限られた数のモデル評価でVoIの正確でロバストな推定を提供することが示されています。したがって、提案された方法は、複雑な決定問題に対するVoIの適用を容易にします。
Near-optimal Reinforcement Learning in Factored MDPs: Oracle-Efficient Algorithms for the Non-episodic Setting
因数分解されたMDPのほぼ最適な強化学習:非エピソード設定のためのOracle効率的なアルゴリズム
URL:http://arxiv.org/abs/2002.02302v1
この論文の概要(機械翻訳による和訳)
非エピソード設定で、因数分解マルコフ決定プロセス(FMDP)の強化学習を研究します。上限と下限の両方を提供する後悔分析に焦点を当てています。 FMDPの2つの最適に近い、oracle-efficientアルゴリズムを提案します。 FMDPプランナーへのオラクルのアクセスを想定すると、彼らはそれぞれベイジアンおよび頻繁な後悔のバウンドを享受し、どちらも標準の非ファクタリングMDPの場合は最適なバウンド$ widetilde {O}(DS sqrt {AT})$に減少します。下限は、diameter $ D $ではなくバイアスベクトルのスパンに依存し、単純なデカルト積構造を介して、スパンのあるFMDPが任意に大きな直径を持つことができることを示しています。これは、直径に依存する境界が非常に緩いことがあることを示唆しています。したがって、我々は、スパンのみに依存するが、計算的に強力なオラクルに依存する別のアルゴリズムを提案します。私たちのアルゴリズムは、コンピューターネットワーク管理者のシミュレーションで、以前のほぼ最適なアルゴリズムよりも優れています。
Fair Correlation Clustering
公平な相関クラスタリング
URL:http://arxiv.org/abs/2002.02274v1
この論文の概要(機械翻訳による和訳)
本論文では、公平性の制約の下で相関クラスタリングを研究する。$ k $中央値と$ k $中心クラスタリングの公正な変種は最近研究されており、フェアレット分解と呼ばれる概念を用いた近似アルゴリズムが提案されている。いくつかの重要なタイプの公平性制約の下で、フェア相関クラスタリングの近似アルゴリズムを取得します。私たちの結果は、新しい組み合わせ最適化問題を導入することにより、相関クラスタリングのフェアレット分解を得ることにかかっています。この問題がどのように$ k $中央値のフェアレット分解に関係するか、そしてこれがどのように広範囲の公平性制約の近似アルゴリズムを得ることができるかを示します。理論的結果を実際のグラフでのアルゴリズムの詳細な分析で補完し、最新の(不公平な)アルゴリズムと比較して、コストの限られた増加で相関クラスタリングの公正なソリューションが得られることを示します。
Using generative adversarial networks to synthesize artificial financial datasets
生成的敵対ネットワークを使用して人工的な金融データセットを合成する
URL:http://arxiv.org/abs/2002.02271v1
この論文の概要(機械翻訳による和訳)
Generative Adversarial Networks(GAN)は、現実的に見える画像の生成で非常に人気がありました。このペーパーでは、GANを使用して、研究とベンチマークの目的で人工金融データを合成することを提案します。 3つのAmerican Expressデータセットでこのアプローチをテストし、適切にトレーニングされたGANがこれらのデータセットを高い忠実度で複製できることを示します。私たちの実験では、新しいタイプのGANを定義し、GANの優れたトレーニングとテストパフォーマンスを可能にするデータ前処理の方法を提案します。また、生成されたデータの品質を評価する方法、および元の実際のデータとの比較についても説明します。
隠された変数を持つデータから微分方程式を明らかにする
URL:http://arxiv.org/abs/2002.02250v1
この論文の概要(機械翻訳による和訳)
力学系をモデル化するための微分方程式のセットを見つけることは、科学および工学の多くの部門に存在する困難なタスクです。微分方程式系をデータから直接学習する方法を提案します。私たちの方法は、オーダーメイドの$ ell_1- $ regularised最小二乗問題を解くことに基づいており、情報の不足を説明するために高次導関数を追加することで潜在変数を処理できます。大規模な数値研究により、一部の変数が観察されない場合でも、データを生成した動的システムの有用な表現を当社の方法が回復できることが示されています。さらに、凸最適化問題の解決に基づいているため、この方法は、組み合わせ問題の解決に基づく競合するアプローチよりもはるかに高速です。最後に、温度の時系列の実際のデータセットに方法論を適用します。
AI-GAN: Attack-Inspired Generation of Adversarial Examples
AI-GAN:攻撃に触発された敵の例の生成
URL:http://arxiv.org/abs/2002.02196v1
この論文の概要(機械翻訳による和訳)
深いモデルをだますことができる敵対的な例は、主に人間の目に知覚できない小さな摂動を加えることによって作成されます。文献には、敵対的摂動を生成するための最適化ベースのさまざまな方法があり、そのほとんどは時間がかかります。 IJCAI〜2018でXiao〜 emph {et}によって提案されたメソッドであるAdvGANは、Generative Adversarial Networks(GAN)を使用して、入力時に元の画像を使用して敵の摂動を生成します。ただし、AdvGANはトレーニングのターゲットクラスを修正するため、元の画像とターゲットクラスを入力として取得するように変更した場合、AdvGANをトレーニングすることは困難です。このペーパーでは、この問題を解決するために、異なるトレーニング戦略で mbox {Attack-Inspired} GAN( mbox {AI-GAN})を提案します。 mbox {AI-GAN}は2段階の方法で、投影勾配降下(PGD)攻撃を使用して、最初の段階でGANのトレーニングを促し、2番目の段階でGANの標準トレーニングを適用します。生成されたジェネレーターは、敵対インスタンスの条件付き分布を近似し、異なるターゲットクラスが与えられた場合に mbox {imperceptible}敵対摂動を生成できます。実験を行い、MNISTおよび mbox {CIFAR-10}での mbox {AI-GAN}のパフォーマンスを評価します。AdvGANと比較して、 mbox {AI-GAN}は同様の摂動の大きさでより高い攻撃成功率を達成します。
A Neural Approach to Ordinal Regression for the Preventive Assessment of Developmental Dyslexia
発達性失読症の予防的評価のための順序回帰への神経アプローチ
URL:http://arxiv.org/abs/2002.02184v1
この論文の概要(機械翻訳による和訳)
発達性失読症(DD)は、人口の約5%に影響を及ぼす読書能力の習得に関連する学習障害です。 DDは、影響を受けた子供の知的および個人的な発達に大きな影響を与える可能性があるため、早期発見は言語教育の予防戦略を実施するための鍵となります。研究により、音素処理に影響するDDの生物学的基盤が存在する可能性があり、したがって、これらの症状は、読解能力が獲得される前に識別可能であり、早期の介入が可能になることが示されています。この論文では、生徒が読むことを学ぶ前にDDのリスクを評価する新しい方法論を提案します。この目的のために、5歳で完了できるテストからディスレクシアのリスクレベルを計算する混合神経モデルを提案します。私たちの方法は、最初に自動エンコーダーをトレーニングし、次にトレーニングされたエンコーダーを、予測の一貫性を確保するために考案された最適化された順序回帰ニューラルネットワークと組み合わせます。私たちの実験は、システムが主に音韻処理に基づいてDDのリスクを評価できる2年前に影響を受けていない被験者を検出し、0.969の特異性と0.92以上の正しいレートを与えることを示しています。さらに、訓練されたエンコーダーを使用して、テスト結果を解釈可能な対象の空間分布に変換し、リスク評価を容易にし、方法論を検証することができます。
Neural Network Representation Control: Gaussian Isolation Machines and CVC Regularization
ニューラルネットワーク表現制御:ガウス分離マシンとCVC正則化
URL:http://arxiv.org/abs/2002.02176v1
この論文の概要(機械翻訳による和訳)
多くの場合、ニューラルネットワーク分類子は、トレーニング分布データの外部にある入力データにさらされる可能性があります。分布外からのサンプルは、ソフトマックスベースの分類器により、高い確率で既存のクラスとして分類される場合があります。このような誤った分類は、分類子とそれらに依存するアプリケーション/システムのパフォーマンスに影響します。トレーニング分布データと分布外データ(OOD)を区別することを目的とした以前の研究では、分類法の外部にある検出器が提案されています。ガウス分離マシン(GIM)、OODデータが検出されたときに問題を解決することを目的とした、新しい(分類別)分類子を提示します。 GIMはニューラルネットワークに基づいており、ニューラルネットワークの出力空間内の各トレーニング済みクラスに分布を課す新しい損失関数を利用します。これはaGaussianで近似できます。提案されたGIMの新規性は、その識別能力と生成能力、単一の分類器では通常見られない特性の組み合わせにあります。 GIMは、画像認識とセンチメント分析のベンチマークデータセットで最先端の分類結果を達成し、OOD入力にも対処できます。また、GIMの損失関数の一部を標準化手法として標準ニューラルネットワークに組み込む利点を示します。
LUNAR: Cellular Automata for Drifting Data Streams
LUNAR:データストリームをドリフトするためのセルオートマトン
URL:http://arxiv.org/abs/2002.02164v1
この論文の概要(機械翻訳による和訳)
高速ストリームの形式で生成される膨大な量のデータの出現により、リアルタイムの機械学習は、現実世界のアプリケーションの過多で関連性を高める課題になっています。このような高速ストリームを処理するには、高いメモリと処理リソースが必要です。さらに、非定常現象(概念ドリフト)の影響を受ける可能性があります。これにより、学習方法はストリーミングデータの分布の変化を検出し、これらの進化する条件に適応する必要があります。効率的でスケーラブルなソリューションの欠如は、特に、小規模で多数の相互接続された処理ユニット(いわゆるSmart Dust、Utility Fog、Swarm Roboticsパラダイムなど)のネットワークで発生するため、コンピューティングリソースが厳しく制限されるリアルタイムシナリオで注目されています)。この作業では、前述の要件を満たすために考案されたセルオートマトンの合理化バージョンであるLUNARを提案します。ドリフト条件に適応しながら、実際のインクリメンタル学習者として機能することができます。合成データと実際のデータを使用した広範なシミュレーションにより、長年確立され成功しているオンライン学習方法と比較した場合、分類性能の面での競争行動の証拠が提供されます。
Bridging Ordinary-Label Learning and Complementary-Label Learning
通常のラベル学習と補完的なラベル学習の橋渡し
URL:http://arxiv.org/abs/2002.02158v1
この論文の概要(機械翻訳による和訳)
通常の教師付きパターン認識とは異なり、新しく提案されたフレームワーク、つまり補完ラベル学習では、各ラベルはパターンが属さない1つのクラスを指定します。この論文では、通常のラベルと補完的なラベルからの学習の自然一般化を提案します。特に、1対すべておよびペアワイズ分類に焦点を当てています。補完的なラベルのバッグを持つ注釈は、すべてのラベルの残りを1つの真のクラスの候補として提供することと同等であると想定します。導出された分類リスクは、文学のそれらを含む包括的な形式であり、単一のラベルと複数の通常/補完ラベルとの関係を明示的に示すことに成功しました。さらに、理論的にも実験的にも、分類誤差は相補的なラベルの数に応じて単調に減少することを示しています。
Fixed smooth convolutional layer for avoiding checkerboard artifacts in CNNs
CNNでチェッカーボードアーティファクトを回避するための滑らかな畳み込み層を修正
URL:http://arxiv.org/abs/2002.02117v1
この論文の概要(機械翻訳による和訳)
この論文では、畳み込みニューラルネットワーク(CNN)のチェッカーボードアーティファクトを回避するためだけでなく、フィルターカーネルの滑らかさをパラメーターで制御できるCNNのパフォーマンスを向上させるために、滑らかな次数を持つ固定畳み込み層を提案します。多くのCNNが2つのプロセスの両方でチェッカーボードアーティファクトを生成することはよく知られています:アップサンプリングレイヤーの前方伝搬と、横たわった畳み込みレイヤーの後方伝搬です。提案されたレイヤーは、ストライド畳み込みレイヤーまたは転置畳み込みレイヤーを含むアップサンプリングレイヤーによって引き起こされるチェッカーボードのアーティファクトを完全に防ぐことができます。 4つのCNN(単純なCNN、VGG8、ResNet-18、およびResNet-101)を使用した画像分類実験では、これらのCNNに固定レイヤーを適用して、すべてのCNNの分類パフォーマンスを改善しています。さらに、固定層が初めて生成的敵対ネットワーク(GAN)に適用されます。画像生成の結果から、GANで生成された画像の品質を向上させるために、より滑らかな固定畳み込み層が実証されています。
Unbalanced GANs: Pre-training the Generator of Generative Adversarial Network using Variational Autoencoder
不均衡なGAN:変分オートエンコーダーを使用した生成的敵対ネットワークのジェネレーターの事前トレーニング
URL:http://arxiv.org/abs/2002.02112v1
この論文の概要(機械翻訳による和訳)
変分オートエンコーダー(VAE)を使用して、生成的敵対ネットワーク(GAN)のジェネレーターを事前トレーニングする不均衡GANを提案します。初期エポックでの識別器のより速い収束を防ぐことにより、ジェネレータの安定したトレーニングを保証します。さらに、初期エポックでジェネレーターとディスクリミネーターのバランスを取り、GANの安定したトレーニングを維持します。 Unbalanced GANをよく知られているパブリックデータセットに適用すると、Unbalanced GANがモードの崩壊を減らすことがわかります。また、初期エポックでの学習の安定化、収束の高速化、画質の向上という点で、不均衡なGANが通常のGANよりも優れていることも示しています。
Privacy-Preserving Boosting in the Local Setting
ローカル設定でのプライバシー保護ブースティング
URL:http://arxiv.org/abs/2002.02096v1
この論文の概要(機械翻訳による和訳)
機械学習では、ブースティングは、複数の基本学習者を優れた学習者と組み合わせるように設計された最も一般的な方法の1つです。よく知られているBoosted Decision Tree分類子は、多くの分野で広く採用されています。ビッグデータ時代には、個人やエンティティが保持するデータ(個人の画像、閲覧履歴、国勢調査情報など)に機密情報が含まれる可能性が高くなります。このようなデータが所有者の手に渡り、さらに調査またはマイニングされると、プライバシーの懸念が生じます。そのようなプライバシーの問題は、機械学習アルゴリズムがプライバシーを認識する必要があることを要求します。最近、LocalDifferential Privacyは効果的なプライバシー保護アプローチとして提案されています。これは、データがさらに使用される前に混乱し、真の値が所有者の手から離れることがないため、データ所有者に強力な保証を提供します。したがって、プライベートデータインスタンスを使用した機械学習アルゴリズムは非常に価値があり、重要です。この論文では、データユーザーが各データサンプルの正確な値を知らない、または導出することなく分類器を構築できるプライバシー保護ブースティングアルゴリズムの開発に興味があります。私たちの実験は、提案されたブースティングアルゴリズムの有効性と学習した分類子。
Faster On-Device Training Using New Federated Momentum Algorithm
新しい連合運動量アルゴリズムを使用したより高速なデバイス上のトレーニング
URL:http://arxiv.org/abs/2002.02090v1
この論文の概要(機械翻訳による和訳)
近年、モバイルクラウドセンシングは注目を集めており、新しいモノのインターネットアプリケーションの重要なパラダイムになっています。これらのデバイスは継続的に大量のデータを生成し、革新的なインテリジェントアプリケーションを開発する絶好の機会を提供します。これらのデータを利用してユーザーのプライバシーを犠牲にすることなく機械学習モデルをトレーニングするために、連合学習は有望なソリューションになりましたが、連合学習アルゴリズムが収束することが保証されているかどうかについてはほとんど理解されていません。連合学習におけるモデルの平均化を再考し、バイアスをかけた勾配を持つ勾配ベースの方法として定式化します。この新しいパースペクティブは、収束率の分析を支援し、より高速化するための新しい方向を提供します。連合平均化アルゴリズムが、追加の仮定を課すことなく、非凸問題に対して収束することが保証されていることを初めて証明します。さらに、新しい加速連合学習アルゴリズムを提案し、収束の保証を提供します。シミュレートされた連合学習実験は、ベンチマークデータセットでディープニューラルネットワークをトレーニングするために行われ、実験結果は、提案された方法が以前のアプローチよりも速く収束することを示しています。
Secure Social Recommendation based on Secret Sharing
秘密共有に基づく安全な社会的推奨
URL:http://arxiv.org/abs/2002.02088v1
この論文の概要(機械翻訳による和訳)
今日、プライバシー保護の機械学習は、業界とアカデミーの両方で大きな注目を集めています。一方、推奨システムは多くの商用プラットフォーム(Amazonなど)で広く採用されており、主にユーザーとアイテムの相互作用に基づいて構築されています。さらに、ソーシャルプラットフォーム(Facebookなど)には、ユーザーのソーシャル情報の豊富なリソースがあります。 Facebookなどのソーシャルプラットフォームで豊富な社会情報が推奨システムに役立つことはよく知られています。ソーシャル情報をユーザー項目の評価と組み合わせて、全体的なレコメンデーションのパフォーマンスを改善することが期待されます。ほとんどの既存の推奨モデルは、社会情報が利用可能であるという仮定に基づいて構築されています。ただし、異なるプラットフォームは通常、特定の懸念のためにデータを共有したがらない(または共有できない)。このホワイトペーパーでは、(1)ソーシャルプラットフォームの知識を共同でマイニングして、評価プラットフォームの推奨パフォーマンスを改善し、(2)両方のプラットフォームの生データを安全に保持できるSEcure SOcial RECommendation(SeSoRec)フレームワークを提案します。次に、SecoRecを最適化し、理論的にその正確性とセキュリティを向上させるために、SecretSharingベースのマトリックス乗算(SSMM)プロトコルを提案します。ミニバッチ勾配降下法を適用することにより、SeSoRecは計算と通信の両方の点で線形の時間複雑性を持ちます。 3つの実世界のデータセットに関する包括的な実験結果は、提案されたSeSoRecおよびSSMMの有効性を示しています。
Minimizing Dynamic Regret and Adaptive Regret Simultaneously
動的後悔と適応後悔の最小化
URL:http://arxiv.org/abs/2002.02085v1
この論文の概要(機械翻訳による和訳)
後悔の最小化は、オンライン学習の伝統的な研究では黄金律として扱われます。ただし、後悔最小化アルゴリズムは静的最適に収束する傾向があるため、環境の変化に対しては最適ではありません。この制限に対処するために、動的な後悔や適応後悔を含む新しいパフォーマンス測定が提案され、オンラインアルゴリズムの設計をガイドしています。固定コンパレータに関して。 dynamicregretとadaptive regretの既存のアルゴリズムは独立して開発されており、1つのパフォーマンス測定のみを対象としています。この論文では、動的な後悔と適応的な後悔を同時に最小限に抑えることができるノベルオンラインアルゴリズムを提案することにより、このギャップを埋めます。実際、1つのアルゴリズムで任意の間隔で動的な後悔を最小限に抑えることができるという意味で、理論上の保証はさらに強力です。
Minimax Confidence Interval for Off-Policy Evaluation and Policy Optimization
ポリシー外評価およびポリシー最適化のためのミニマックス信頼区間
URL:http://arxiv.org/abs/2002.02081v1
この論文の概要(機械翻訳による和訳)
価値関数と周辺化された重要度の重みを使用して、ポリシー外評価(OPE)のミニマックス手法を研究します。従来の重要度サンプリングの指数変動を克服するという約束を保持しているにもかかわらず、いくつかの重要な問題が残っています。(1)関数近似が必要であり、一般に偏っています。信頼できるOPEのために、とにかくバイアスを定量化する方法はありますか? (2)これらは2つのスタイル(「重量学習」対「値学習」)に分割されます。それらを統合できますか?このペーパーでは、両方の質問に積極的に答えます。以前の方法(各スタイルから1つ、上原と江、2019)の派生をわずかに変更することにより、それらを単一の信頼区間(CI)に統合し、自動的に特別なタイプの二重ロバスト性を備えています:値関数または重要度重みクラス明確に指定されており、CIは有効であり、その長さは他のクラスの仕様の誤りを定量化します。また、どのクラスが誤って指定されているかを知ることもできます。これにより、関数近似の設計に役立つ診断情報が提供されます。私たちのCIは、いくつかの最近の方法に対する新しい洞察の統一されたビューも提供します:たとえば、CIの片側はAlgaeDICEの嫌悪感を回復し(Nachum et al。、2019b)、両側を一緒に使用する必要があることを示しますポイント推定値として近似誤差が2倍になる場合があります。さらに、これらの境界を2つの長年の問題に適用する可能性を検討します。データカバレッジが不十分なポリシー外のポリシー最適化(つまり、悪用)と効率的な調査です。適切に指定された値関数クラスを使用して、下限と上限を最適化すると、それぞれ適切な開発と調査につながることを示します。
On Geometry of Information Flow for Causal Inference
因果推論のための情報フローの幾何学について
URL:http://arxiv.org/abs/2002.02078v1
この論文の概要(機械翻訳による和訳)
因果推論は、おそらく科学の最も基本的な概念の1つであり、元々は古代哲学者の一部の作品から始まり、今日に至りますが、統計学者、機械学習の専門家、および他の多くの分野の科学者による現在の作品にも強く織り込まれています。このペーパーでは、情報フローの視点を取り上げます。これには、グレンジャー因果関係に関するノーベル賞受賞作品、および最近非常に人気のあるトランスファーエントロピーが含まれます。主な貢献は、正の転送エントロピーによって示される因果的推論として情報フローの幾何学的解釈を可能にする分析ツールを開発することです。情報フローを要約する結果空間に投影される基礎多様体の有効次元を記述します。したがって、確率的および幾何学的な観点とは対照的に、将来の予測の競合する説明に条件付きで適用されるフラクタル相関次元に基づいて、$ GeoC_ {y rightarrow x} $と書く新しい因果推論の尺度を導入します。これにより、転送エントロピー$ T_ {y rightarrow x} $に存在する境界性の問題が回避されます。連続してより複雑な性質の合成モデルから開発されたデータを使用して議論を強調します。次に、H ‘{e}非マップの例を含め、最後に呼吸と心拍数関数に関連する実際の生理学的な例を含めます。キーワード:因果推論;エントロピーの転送。微分エントロピー;相関次元;ピンスカーの不平等;フロベニウス-ペロン演算子。
Truncated Hilbert Transform: Uniqueness and a Chebyshev Polynomial Expansion Approach
切り捨てられたヒルベルト変換:一意性とチェビシェフ多項式展開アプローチ
URL:http://arxiv.org/abs/2002.02073v1
この論文の概要(機械翻訳による和訳)
コンパクトなサポートとその切り捨てられたヒルベルト変換を持つ関数が、Sokhotski-Plemelj公式を使用して同じ間隔で既知である場合、より強力な一意性の結果を導き出します。切り捨てられたヒルベルト変換から関数を見つけるには、それらをチェビシェフ多項式系列で表現し、係数を数値的に推定する2つの方法を提案します。外挿法が数値的にうまくいくことを示すために、コンピューターシミュレーションの結果を示します。
Finite Hilbert Transform in Weighted L2 Spaces
重み付きL2空間での有限ヒルベルト変換
URL:http://arxiv.org/abs/2002.02071v1
この論文の概要(機械翻訳による和訳)
加重ヒルベルト変換のいくつかの新しいプロパティが取得されます。 mu = 0の場合、2つのPlancherelのような等式と等方性が導出されます。 mu> 0の場合、保磁力が確立され、反転を見つけるために2つの反復シーケンスが構築されます。提案された反復シーケンスは、純粋な虚数定数 mu = i etaと eta < pi / 4の場合に適用できます。この論文の結果は、医療画像アプリケーションでの画像再構成に役立ちます。
A Feedback Shift Correction in Predicting Conversion Rates under Delayed Feedback
遅延フィードバックの下での変換率の予測におけるフィードバックシフト補正
URL:http://arxiv.org/abs/2002.02068v1
この論文の概要(機械翻訳による和訳)
ディスプレイ広告では、コンバージョン率、つまり、商品の購入など、ユーザーが広告主のWebサイトで事前定義されたアクションを実行する確率を予測することが、広告を表示する価値を見積もるうえで基本です。ただし、クリックとその結果の変換との間には比較的長い時間遅延があります。フィードバックが遅れているため、トレーニングデータが収集されたときにまだ変換が行われていないため、トレーニング期間の一部のポジティブインスタンスはネガティブとしてラベル付けされます。結果として、条件付きラベルの分布は、トレーニングデータと実稼働環境で異なります。この状況は、フィードバックシフトと呼ばれます。通常、共変量シフト補正に使用される重要度重みアプローチを使用して、この問題に対処します。フィードバックシフトの一貫性を証明します。オフラインとオンラインの両方の実験の結果は、提案された方法が既存の方法よりも優れていることを示しています。
No-Regret Prediction in Marginally Stable Systems
限界安定システムにおける後悔のない予測
URL:http://arxiv.org/abs/2002.02064v1
この論文の概要(機械翻訳による和訳)
境界のある敵対的または(非等方性)確率的摂動を受ける、わずかに安定した線形力学システムにおけるオンライン予測の問題を検討します。これには2つの課題があります。第一に、システムは一般的には識別不可能であるため、パラメータ回復に関する最近の古典的な結果は当てはまりません。第二に、システムをわずかに安定させることができるため、状態は時間とともに多項式的に成長します。これにより、onlineconvex最適化の標準的な後悔の範囲が空になります。これらの課題にも関わらず、オンライン最小二乗アルゴリズムが、システムのパラメーターへの多項式依存性を備えた準線形後悔(確率的設定での多対数に改善可能)を達成することを示します。これには、状態が多項式的に成長した場合でも、システムの現在の状態が過去の状態の小さな線形結合であることを示す構造的補題を含む、洗練された後悔分析が必要です。自己回帰フィルターの学習に手法を適用することにより、ガウスノイズの下で部分的に観測された設定で対数的後悔を達成し、関連するカルマンフィルターのメモリへの多項式依存性もあります。
Robust Boosting for Regression Problems
回帰問題のためのロバストなブースティング
URL:http://arxiv.org/abs/2002.02054v1
この論文の概要(機械翻訳による和訳)
勾配ブースティングアルゴリズムは、単純な「ベース学習器」の線形結合を使用して回帰推定量を構築します。高次元の問題にスケーラブルなロバストなノンパラメトリック回帰推定量を得るために、ロバスト線形回帰の処理と同様に、2段階アプローチに基づいたロバストなブースティングアルゴリズムを提案します。有界損失関数を最適化することにより、効率を改善します。以前の提案とは異なり、このアルゴリズムでは、各ステップでアドホック残差スケール推定量を計算する必要はありません。通常、損失関数は非凸であるため、計算が高速な$ L_1 $回帰ツリーを使用してアルゴリズムを初期化することを提案します。また、順列手順を介して計算される変数選択用の堅牢な変数重要度メトリックを導入します。シミュレートされたデータ実験と実際のデータ実験により、我々は文献にある2乗損失を伴う勾配ブースティングと他のロバストブースティング法とを比較します。クリーンなデータを使用して、この方法は損失の2乗による勾配ブースティングと同様に機能します。対称的および非対称的に汚染されたデータを使用して、提案された方法が予測誤差および変数選択の精度に関して優れていることを示します。
Few-Shot Learning as Domain Adaptation: Algorithm and Analysis
ドメイン適応としての少数ショット学習:アルゴリズムと分析
URL:http://arxiv.org/abs/2002.02050v1
この論文の概要(機械翻訳による和訳)
少数のサンプルのみで未表示のクラスを認識するために、少数ショット学習(FSL)は、表示されたクラスから学習した事前知識を使用します。 FSLの主な課題は、見えないクラスの分布が見られるクラスの分布と異なることであり、モデルが見られるクラスでメタトレーニングされている場合でも一般化が不十分になることです。このクラス差が原因の分布シフトは、ドメインシフトの特殊なケースと見なすことができます。本論文では、初めて、メタ学習フレームワークにおけるこのようなドメインシフト問題に明示的に取り組むための注意を伴うドメイン適応プロトタイプネットワーク(DAPNA)を提案する。具体的には、セットトランスフォーマーベースのアテンションモジュールを使用して、これらのクラスでクラスオーバーラップのない2つのサブエピソードで各エピソードを構築し、見られたクラスと見えないクラスの間のドメインシフトをシミュレートします。トレーニングサンプルが限られている場合、フィーチャ転送ネットワークがマージン不一致(MDD)損失とともに使用されます。重要なことは、DAPNAの学習範囲を提供するために理論的分析が提供されていることです。広範な実験により、当社のDAPNAは最先端のFSLの代替品よりも、多くの場合かなりのマージンで優れていることが示されています。
Supervised Learning on Relational Databases with Graph Neural Networks
グラフニューラルネットワークを用いたリレーショナルデータベースの教師あり学習
URL:http://arxiv.org/abs/2002.02046v1
この論文の概要(機械翻訳による和訳)
データサイエンティストおよび機械学習の実践者の大部分は、自分の仕事でユーザーデータを使用しています[State of ML and Data Science 2017、Kaggle、Inc。]。しかし、リレーショナルデータベースに保存されたデータの機械学習モデルをトレーニングするには、大量のデータ抽出と機能エンジニアリングの努力が必要です。 Graph NeuralNetworksを使用してこれらの課題を克服する方法を紹介します。提案された方法は、3つのデータセットのうち2つで最先端の自動フィーチャエンジニアリング方法よりも優れています。
Extracting dispersion curves from ambient noise correlations using deep learning
深層学習を使用して周囲の雑音相関から分散曲線を抽出する
URL:http://arxiv.org/abs/2002.02040v1
この論文の概要(機械翻訳による和訳)
表面波分散曲線の位相を分類するための機械学習アプローチを提示します。受信機のアレイで観察される表面の標準FTAN解析は画像に変換され、その各ピクセルは基本モード、最初の倍音、またはノイズとして分類されます。教師付き学習目標を備えた畳み込みニューラルネットワーク(U-net)アーキテクチャを使用し、転移学習を組み込みます。トレーニングは、最初に粗い構造を学習するために合成データを使用して実行され、その後、人間の分類に基づいて実際のデータの約10%を使用してネットワークを微調整します。一度に複数の画像を処理する方法を拡張しても、パフォーマンスは向上しません。開発された手法は、大きな分散曲線データセットの自動処理を容易にします。
A Deterministic Streaming Sketch for Ridge Regression
リッジ回帰の決定論的ストリーミングスケッチ
URL:http://arxiv.org/abs/2002.02013v1
この論文の概要(機械翻訳による和訳)
リッジ回帰を推定するための決定論的な空間効率の良いアルゴリズムを提供します。 $ d $の特徴と十分に大きい正規化パラメーターを持つ$ n $のデータポイントの場合、$ O(d / varepsilon)$スペースのみを使用して、$ varepsilon $ L $ _2 $ error内でソリューションを提供します。これは、この古典的な問題の最初の$ o(d ^ 2)$空間アルゴリズムです。このアルゴリズムは、頻出方向のバリアントによって共分散行列をスケッチします。これは、挿入のみのストリームとさまざまな分散データ設定を操作できることを意味します。合成および実世界のデータセットでのランダムスケッチアルゴリズムと比較して、このアルゴリズムは、より少ないスペースと類似の時間を使用して、経験的エラーが少なくなっています。
Nested Barycentric Coordinate System as an Explicit Feature Map
明示的な特徴マップとしてのネストされた重心座標系
URL:http://arxiv.org/abs/2002.01999v1
この論文の概要(機械翻訳による和訳)
サンプルサイズが周囲寸法を大きく超える設定に特に適した新しい埋め込み方法を提案します。 Ourtechniqueは、空間をシンプレックスに分割し、シンプレックスの重心座標に対応するフィーチャにデータポイントを埋め込むことで構成されます。次に、シンプレックスから得られた豊富な特徴空間で線形分類器をトレーニングします。決定境界は、各シンプレックス内で線形であるため(したがって全体的に区分線形)、非常に非線形である場合があります。さらに、この方法は、任意の凸体を近似できます。経験的マージンと新しいハイブリッドサンプル圧縮技術に基づいて、一般化境界を与えます。広範な経験的評価により、本手法が一般的なカーネル埋め込み手法の範囲を一貫して上回ることが示されています。
A mean-field theory of lazy training in two-layer neural nets: entropic regularization and controlled McKean-Vlasov dynamics
2層ニューラルネットにおける遅延訓練の平均場理論:エントロピー正則化と制御されたマッキーン-ブラソフ動力学
URL:http://arxiv.org/abs/2002.01987v1
この論文の概要(機械翻訳による和訳)
Kullback-Leibler発散の意味で「ほぼガウス」であるランダムな重みを持つ2層ニューラルネットによる関数の普遍的な近似の問題を検討します。この問題は、確率的勾配降下によって生成された重みの更新がi.i.dから大きく移動しない、レイジートレーニングに関する最近の研究によって動機付けられています。ガウス初期化。最初に、隠れ層のニューロンの有限集団が連続アンサンブルに置き換えられる平均場の限界を考慮し、重みに対する確率測定の空間での自由エネルギー汎関数のグローバル最小化として問題を表現できることを示します。この関数は、centeredGaussian事前分布に関して、KL発散に対する$ L ^ 2 $近似リスクをトレードオフします。ユニークなグローバルミニマイザーを特徴づけてから、McKean–Vlasov最適制御問題を解決する確率測定オーバーウエイトの空間で制御された非線形ダイナミクスを構築します。この制御問題は、シュレディンガーブリッジ(またはエントロピー最適輸送)問題と密接に関連しており、その値は自由エネルギーの最小値に比例します。最後に、怠GDなトレーニング体制におけるSGD(ガウス事前分布とエントロピー正則化パラメーターの分散)は、optimalMcKean–Vlasov分布ダイナミクスの貪欲な近似として機能し、$ L ^ 2 $近似誤差の定量的保証を提供します。
Mutual Information-based State-Control for Intrinsically Motivated Reinforcement Learning
本質的に動機付けられた強化学習のための相互情報ベースの状態制御
URL:http://arxiv.org/abs/2002.01963v1
この論文の概要(機械翻訳による和訳)
強化学習では、エージェントは外部の報酬シグナルによって一連の目標に到達することを学習します。自然界では、インテリジェントな生物は内部ドライブから学習し、外部信号の必要性をバイパスします。これは、広範なタスクに有益です。この観察に動機付けられて、我々は、ゴールステートと制御可能なステートとの間の相互情報として固有の目的を定式化することを提案する。この目的は、エージェントが環境を制御することを奨励します。その後、提案された報酬関数の代理目的を導き出し、効率的に最適化することができます。最後に、開発したフレームワークをさまざまなロボット操作およびナビゲーションタスクで評価し、アプローチの有効性を実証します。実験結果を示すビデオは、 url {https://youtu.be/CT4CKMWBYz0}で入手できます。
Over-the-Air Adversarial Attacks on Deep Learning Based Modulation Classifier over Wireless Channels
無線チャネルを介した深層学習ベースの変調分類器に対する無線攻撃
URL:http://arxiv.org/abs/2002.02400v1
この論文の概要(機械翻訳による和訳)
送信機、受信機、および敵から構成される無線通信システムを検討します。送信機は異なる変調タイプの信号を送信し、受信機は深層学習ベースの分類器を使用して受信信号を変調タイプに分類します。その間、敵は送信機の信号と重ね合わせて受信される無線送信を行い、受信機の分類器を欺いてエラーを発生させる。この回避攻撃は最近注目を集めていますが、敵対者から受信者へのチャネル効果はこれまで無視されてきたため、以前の攻撃メカニズムは非現実的なチャネル効果に適用できません。このホワイトペーパーでは、敵から受信者へのチャネルを考慮して、現実的な回避攻撃を開始する方法を示します。私たちの結果は、変調分類が、パスロスとシャドウイングを伴うレイリーフェージングとしてモデル化されたワイヤレスチャネル上の敵対攻撃に対して脆弱であることを示しています。チャネル、送信機の入力、および分類子アーキテクチャに関する情報の可用性に関して、さまざまな敵対攻撃を提示します。まず、2つのタイプの敵対攻撃、つまり、ターゲットラベル(真のラベル以外のラベル)に分類を変更することを目的としたターゲット攻撃(最小電力)と非ターゲット攻撃をそれぞれ示します。両方とも、トランスミッタ入力固有のホワイトボックス攻撃であり、チャネル情報を使用します。次に、攻撃者がチャネルの分布のみを知っている限られたチャネル情報を使用して、攻撃を生成するアルゴリズムを導入します。最後に、敵がチャネルと送信機の両方の入力に関する知識を制限しているブラックボックスユニバーサル敵摂動(UAP)攻撃を提示します。
FastGAE: Fast, Scalable and Effective Graph Autoencoders with Stochastic Subgraph Decoding
FastGAE:確率的サブグラフ復号化を備えた高速でスケーラブルで効果的なグラフオートエンコーダ
URL:http://arxiv.org/abs/2002.01910v2
この論文の概要(機械翻訳による和訳)
グラフオートエンコーダ(AE)および変分オートエンコーダ(VAE)は強力なノード埋め込み方法ですが、スケーラビリティの問題があります。このペーパーでは、グラフAEとVAEを数百万のノードとエッジを持つ大きなグラフにスケーリングする一般的なフレームワークであるFastGAEを紹介します。ノードのサンプリングとサブグラフのデコードに基づく当社の戦略は、パフォーマンスを維持または改善しながら、グラフAEとVAEのトレーニングを大幅にスピードアップします。多数の実世界のグラフでFastGAEの有効性を実証し、グラフAEおよびVAEを大幅に拡大する少数の既存のアプローチをしのいでいます。
Deep RBF Value Functions for Continuous Control
連続制御のためのディープRBF値関数
URL:http://arxiv.org/abs/2002.01883v1
この論文の概要(機械翻訳による和訳)
強化学習(RL)のコア操作は、学習された状態アクション値関数に関して最適なアクションを見つけることです。学習値関数が入力として連続的なアクションをとる場合、この操作はしばしば困難です。深層RBF値関数を導入します:動径基底関数(RBF)出力層を持つ深層ニューラルネットワークを使用して学習した状態アクション値関数。深いRBF値関数に関する最適なアクションは、希望する精度まで簡単に近似できることを示します。さらに、deepRBF値関数は、ユニバーサル関数近似をサポートしているため、必要な精度までの真の値関数を表すことができます。ディープRBF値関数を学習することにより、標準DQNアルゴリズムを継続制御に拡張し、結果のエージェントRBF-DQNが一連の連続アクションRL問題の標準ベースラインよりも優れていることを実証します。
Locally-Adaptive Nonparametric Online Learning
局所適応ノンパラメトリックオンライン学習
URL:http://arxiv.org/abs/2002.01882v1
この論文の概要(機械翻訳による和訳)
オンラインアルゴリズムの主な強みの1つは、任意のデータシーケンスに適応できることです。これは、複雑な環境に適合することができるコンパレータ関数の豊富なクラスに対して後悔が測定されるノンパラメトリック設定で特に重要です。このようなハードコンパレータと複雑な環境はローカルな規則性を示す可能性がありますが、パフォーマンスがこれらのローカルパターンを確実に利用できる効率的なアルゴリズムはほとんど知られていません。このギャップを埋めて、(1)競合関数のローカルリプシッツネス、(2)インスタンスシーケンスのローカルメトリックディメンション、(3)異なる予測変数のローカルパフォーマンスインスタンススペースの領域。以前のアプローチを拡張して、インスタンス空間の階層的なパッキングを動的に成長させるアルゴリズムを設計し、その枝刈りは手近な問題の異なる「局所性プロファイル」に対応します。ツリーの専門家に基づいた手法を使用して、このようなすべての剪定と同時に効率的に競合し、3種類すべてのローカル規則性に関連する量で後悔の範囲のスケーリングを証明します。 「単純な」局所性プロファイルと競合する場合、この手法は、以前のアプローチを使用して実証されたものよりも大幅に優れた後悔の限界をもたらします。一方、境界の時間依存性は、局所的な規則性を無視することで得られるものより悪くありません。
Wasserstein Exponential Kernels
Wasserstein指数カーネル
URL:http://arxiv.org/abs/2002.01878v1
この論文の概要(機械翻訳による和訳)
カーネルメソッドのコンテキストでは、データポイント間の類似性は、ユークリッド距離のおかげで定義されることが多いカーネル関数によってエンコードされます。一般的な例は、指数カーネルの二乗です。最近、最適な輸送理論に依存する他の距離-確率分布間のWasserstein距離など-は、異なる機械学習手法に対する実用的な関連性を示しています。この論文では、正則化されたWassersteindistanceのおかげで定義された指数カーネルの使用を研究し、それらの正定性について議論します。より具体的には、Wassersteinフィーチャマップを定義し、形状と画像に関連する教師あり学習の問題に対する関心を示します。経験的に、ワッサースタイン平方指数カーネルは、ユークリッド距離を使用した類似の分類器と比較して、形状の小さなトレーニングセットでより小さい分類エラーを生成することが示されています。
$ε$-shotgun: $ε$-greedy Batch Bayesian Optimisation
$ε$ -shotgun:$ε$ -greedy Batch Bayesian Optimization
URL:http://arxiv.org/abs/2002.01873v1
この論文の概要(機械翻訳による和訳)
ベイジアン最適化は、高価なブラックボックス関数を最適化するための一般的な代理モデルベースのアプローチです。代理モデルが与えられた場合、安価にクエリを取得する関数を最大化することで、費用のかかる評価を行う次の場所が選択されます。ブラックボックス関数を複数回並行して評価できるバッチ設定でのベイズ最適化のための$ epsilon $ -greedy手順を示します。私たちの$ epsilon $ -shotgunアルゴリズムは、モデルの予測、不確実性、および景観の変化率の概算を活用して、推定位置に分散するバッチソリューションの広がりを決定します。初期ターゲットの場所は、平均予測で搾取的な方法で、または-確率$ epsilon $-で設計空間の他の場所から選択されます。これにより、関数が急速に変化している領域でより高密度にサンプリングされた場所と、インロケーションが良好であると予測された(つまり、予測された最適値に近い)位置になり、関数がより平坦であるか、品質が低い領域でより多くの散乱サンプルが発生します。一連の合成関数と2つの実世界の問題で$ epsilon $ -shotgunメソッドを経験的に評価し、それらが少なくとも最新のバッチメソッドと同様に実行され、多くの場合それらのパフォーマンスを上回ることを発見しました。
Near-Optimal Algorithms for Minimax Optimization
ミニマックス最適化のためのほぼ最適なアルゴリズム
URL:http://arxiv.org/abs/2002.02417v1
この論文の概要(機械翻訳による和訳)
この論文は、滑らかで強く凸で強く凹のミニマックス問題のための最適に近い一次アルゴリズムの設計に関する長年の未解決の問題を解決します。現在の最先端の1次アルゴリズムは、$ tilde {O}( kappa _ { mathbf x} + kappa _ { mathbf y})$または$ tilde {O}( min { kappa _ { mathbf x} sqrt { kappa _ { mathbf y}}、 sqrt { kappa _ { mathbf x}} kappa _ { mathbf y} })$勾配評価、ここで$ kappa _ { mathbf x} $および$ kappa _ { mathbf y} $は、強い凸面と強い凹面の仮定の条件番号です。これらの結果と既存の最良の下限$ tilde { Omega}( sqrt { kappa _ { mathbfx} kappa _ { mathbf y}})$の間にギャップが残ります。この論文では、$ tilde {O}( sqrt { kappa _ { mathbf x} kappa _ { mathbf y}})$勾配の複雑さを伴う最初のアルゴリズムを提示し、下限を対数因子に一致させます。私たちの新しいアルゴリズムは、加速近位点法とミニマックス近位ステップ用の加速ソルバーに基づいて設計されています。これは、強凸凹、凸凹、非凸強凹、および非凸凹関数の設定に簡単に拡張できます。このホワイトペーパーでは、これらの設定で既存のすべてのメソッドを、対数因子までの勾配の複雑さに関して一致またはそれを上回るアルゴリズムも示します。
Understanding the Decision Boundary of Deep Neural Networks: An Empirical Study
ディープニューラルネットワークの決定境界の理解:実証研究
URL:http://arxiv.org/abs/2002.01810v1
この論文の概要(機械翻訳による和訳)
多くの画像分類タスクで顕著なパフォーマンスを達成しているにもかかわらず、最先端の機械学習(ML)分類器は小さな入力の摂動に対して脆弱なままです。特に、敵対的な例の存在は、自動運転や病気の検出など、安全およびセキュリティが重要な環境でのMLモデルの展開に関する懸念を引き起こします。過去数年にわたって、敵対的および腐敗に対する堅牢性を改善することを目的とした多くの防御方法が公開されてきました。しかし、提案された対策は非常に限られた範囲でしか成功しませんでした。この限られた進歩は、部分的には、深層神経回路網の決定境界と決定領域の理解不足によるものです。したがって、決定点までのデータポイントの最小距離と、このマージンが深層神経回路網のトレーニングでどのように進化するかを研究します。 MNIST、FASHION-MNIST、およびCIFAR-10で実験を行うことにより、トレーニングの間に決定境界が自然画像に近づくことがわかります。この現象は、分類器がすでに低いトレーニングとテストのエラー率を取得しているトレーニングの後期エポックでも完全なままです。他方、敵対的訓練は、決定境界のこの望ましくない収束を防ぐ可能性があるように思われます。
Sharpe Ratio in High Dimensions: Cases of Maximum Out of Sample, Constrained Maximum, and Optimal Portfolio Choice
高次元のシャープレシオ:最大サンプル不足、制約付き最大、および最適なポートフォリオ選択のケース
URL:http://arxiv.org/abs/2002.01800v1
この論文の概要(機械翻訳による和訳)
この記事では、ポートフォリオ内のアセットの数がその期間よりも大きい場合の最大シャープレシオを分析します。この大きな次元のセットアップにおける障害の1つは、過剰資産収益のサンプル共分散行列の特異性です。この問題を解決するために、Meinshausen and Buhlmann(2006)によって開発されたnodewiseregressionと呼ばれる手法が役立ちます。 Lassoメソッドを使用して、精度行列のスパース/弱スパースで一貫した推定値を提供します。 3つの問題を分析します。私たちの論文の重要な結果の1つは、大きな次元のポートフォリオの平均分散効率が確立されていることです。次に、その結果に結び付けて、このサンプルの大きなポートフォリオで最大のサンプル外シャープ比を一貫して推定できることも示します。さらに、収束率を提供し、資産の数が対数因子まで収束を遅くすることを確認します。次に、ポートフォリオの重みが1になると最大シャープレシオの一貫性を提供し、制約された最大シャープレシオの新しい式と推定値も提供します。最後に、グローバル最小分散ポートフォリオとMarkowitz(1952)の平均分散ポートフォリオのシャープ比の一貫した推定値を提供します。仮定の観点から、時系列データを考慮しています。シミュレーションおよびサンプル外予測の演習では、新しい方法が因子および収縮ベースの手法と比較して優れた性能を発揮することが示されています。
Proximity Preserving Binary Code using Signed Graph-Cut
署名付きグラフカットを使用した近接保存バイナリコード
URL:http://arxiv.org/abs/2002.01793v1
この論文の概要(機械翻訳による和訳)
データポイント間の類似性と非類似性を学習してコンパクトで親和性を保持するバイナリコードを作成する、プロキシミティ保存コード(PPC)と呼ばれるバイナリ埋め込みフレームワークを紹介します。このコードを使用して、最近傍検索に高速でメモリ効率の高い近似を適用できます。当社のフレームワークは柔軟性があり、データポイント間で異なる近接性定義を可能にします。符号なしグラフ分割に基づいてバイナリコードを抽出する以前の方法とは対照的に、システムは、正および負のグラフの重みを組み込むことにより、データの魅力的および反発力をモデル化します。提案されたフレームワークは、NP困難であることが知られている問題である署名付きグラフの最小カットを見つけることまで要約されることが示されています。コードを少しずつ構築することにより、効率的な近似を提供し、優れた結果を達成します。提案された近似は、精度と複雑さの両方に関して、一般的に使用されるスペクトル法よりも優れていることを示しています。したがって、署名付きグラフカットに変換できる他の多くの問題に役立ちます。
Feature-map-level Online Adversarial Knowledge Distillation
機能マップレベルのオンライン敵対的知識蒸留
URL:http://arxiv.org/abs/2002.01775v1
この論文の概要(機械翻訳による和訳)
機能マップには、画像の強度と空間相関に関する豊富な情報が含まれています。ただし、以前のオンライン知識の蒸留方法は、クラスの確率のみを利用していました。したがって、本論文では、対人訓練フレームワークを使用して、クラス確率の知識だけでなく、特徴マップの知識も転送するオンライン知識蒸留法を提案します。識別器を使用して異なるネットワークの機能マップ分布を区別することにより、複数のネットワークを同時にトレーニングします。各ネットワークには、対応する識別器があり、機能マップをそれ自体から偽物として識別し、他方のネットワークのそれを実物として分類します。ネットワークを訓練して、対応する識別器をだますことにより、他のネットワークの機能マップ分布を学習できます。我々の方法は、L1などの従来の直接配列法よりも優れた性能を発揮し、オンライン蒸留に適していることを示しています。また、3つ以上のネットワークを一緒にトレーニングするための新しい循環学習方式を提案します。分類タスクのさまざまなネットワークアーキテクチャにメソッドを適用し、特に小規模ネットワークと大規模ネットワークのペアをトレーニングする場合に、パフォーマンスの大幅な改善を発見しました。
Online Passive-Aggressive Total-Error-Rate Minimization
オンラインのパッシブ-アグレッシブ合計エラー率の最小化
URL:http://arxiv.org/abs/2002.01771v1
この論文の概要(機械翻訳による和訳)
オンライン受動的攻撃的学習(PA)およびバイナリ分類のための総誤り率最小化(TER)を利用する新しいオンライン学習アルゴリズムを提供します。 PA学習は、大きなマージントレーニングだけでなく、分離不可能なデータを処理する能力も確立します。一方、TER学習は、近似分類エラーベースの目的関数を最小化します。これらの有用な特性を組み合わせたオンラインPATERアルゴリズムを提案します。さらに、データの不均衡の問題に対処する能力を向上させるために、重み付きPATERアルゴリズムも提示します。実験結果は、提案されたPATERアルゴリズムが、実世界のデータセットにある既存の最先端のオンライン学習アルゴリズムよりも効率と有効性のパフォーマンスが優れていることを示しています。
Forecasting Industrial Aging Processes with Machine Learning Methods
機械学習法による産業の老化プロセスの予測
URL:http://arxiv.org/abs/2002.01768v1
この論文の概要(機械翻訳による和訳)
産業用老化プロセス(IAP)を正確に予測することにより、メンテナンスイベントをさらに事前にスケジュールして、コスト効率の高い信頼性の高いプラントの運用を確保できます。これまでのところ、これらの劣化プロセスは通常、機構モデルまたは単純な経験的予測モデルによって記述されていました。この論文では、このタスクのより広範なデータ駆動型モデルを評価し、従来のステートレスモデル(線形およびカーネルリッジ回帰、フィードフォワードニューラルネットワーク)をより複雑なリカレントニューラルネットワーク(エコー状態ネットワークおよびLSTM)と比較します。各モデルをトレーニングするのにどれだけの歴史的データが必要かを調べるために、既知のダイナミクスを持つ合成データセットでのパフォーマンスを最初に調べます。次に、大規模な化学プラントからの実世界のデータでモデルをテストします。私たちの結果は、LSTMが十分に大きなデータセットでトレーニングされた場合にほぼ完全な予測を生成する一方で、線形モデルは条件が変わる小さなデータセットをより一般化できることを示しています。
Does the Markov Decision Process Fit the Data: Testing for the Markov Property in Sequential Decision Making
マルコフ意思決定プロセスはデータに適合していますか:逐次意思決定におけるマルコフ特性のテスト
URL:http://arxiv.org/abs/2002.01751v1
この論文の概要(機械翻訳による和訳)
マルコフ仮定(MA)は、強化学習の経験的妥当性の基本です。この論文では、逐次的な意思決定においてMAをテストするための新しいForward-BackwardLearning手順を提案します。提案されたテストは、観測データの共同分布に関するパラメトリック形式を想定せず、最適なポリシーの高次マルコフ決定プロセスと部分的に観測可能なMDPを識別するために重要な役割を果たします。合成データセットとモバイルヘルススタディの実際のデータ例の両方にテストを適用して、その有用性を示します。
A Reinforcement Learning Framework for Time-Dependent Causal Effects Evaluation in A/B Testing
A / Bテストにおける時間依存の因果効果評価のための強化学習フレームワーク
URL:http://arxiv.org/abs/2002.01711v2
この論文の概要(機械翻訳による和訳)
A / Bテスト、またはオンライン実験は、新製品を製薬、技術、および従来の業界の古い製品と比較するための標準的なビジネス戦略です。時間の経過とともに一連の治療を受けるユニットが1つしかないオンライン実験では、大きな課題が発生します。これらの実験では、ある時点での治療は現在の結果と将来の結果に影響を与えます。このペーパーの目的は、長期治療効果を特徴づけながら、A / Bテストを実施するための強化学習フレームワークを導入することです。提案されているテスト手順では、順次監視とオンライン更新が可能になるため、一般にさまざまな業界のさまざまな治療設計に適用できます。さらに、テスト手順の理論的特性(たとえば、漸近分布と検出力)を体系的に調査します。最後に、フレームワークを合成データセットとライドシェアリング会社から入手した実世界のデータ例の両方に適用して、その有用性を示します。
Semiparametric Bayesian Forecasting of Spatial Earthquake Occurrences
空間地震発生のセミパラメトリックベイズ予測
URL:http://arxiv.org/abs/2002.01706v1
この論文の概要(機械翻訳による和訳)
自励式のホークスプロセスは、時間と空間にクラスター化するイベントをモデル化するために使用され、地震型余震シーケンス(ETAS)モデルの名前で地震学で広く研究されています。 ETASフレームワークでは、地理的領域での本震地震の発生は、不均一な空間ポイントプロセスに従うと想定され、その後、別のトリガーカーネルを介して余震イベントがモデル化されます。 ETASモデルの以前のほとんどの研究は、尤度関数の複雑さ、および適切なメインショック分布の推定の難しさのために、モデルパラメータのポイント推定に依存しています。推定の不確実性を考慮に入れるために、我々は代わりに空間的主衝撃過程を捕捉する前にノンパラメトリックディリクレ過程混合を使用するETASモデルの完全ベイズ定式化を提案します。結果のモデルの直接推論は、メインショックとトリガープロセスのパラメーターの強い相関のため問題があるため、代わりに補助的な潜在変数ルーチンを使用して効率的な推論を実行します。
Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable Embeddings with Generative Priors
1ビット圧縮センシングと生成事前確率を使用したバイナリ安定埋め込みのサンプルの複雑さの範囲
URL:http://arxiv.org/abs/2002.01697v1
この論文の概要(機械翻訳による和訳)
標準の1ビット圧縮センシングの目標は、それぞれがベクトルの線形関数の符号を示すバイナリ値の測定値から未知のスパースベクトルを正確に復元することです。ジェネレーティブモデリングの仮定が通常のスパース性の仮定に置き換わる、ジェネレーティブモデルを使用した圧縮センシングの最近の進歩に動機付けられて、1ビット圧縮センシングの問題をジェネレイティブモデルで研究します。最初に、ノイズのない1ビット測定を検討し、近似回復アンダーアイ.i.d。〜ガウス測定とリプシッツ連続生成事前のサンプルの複雑さの範囲、およびほぼ一致するアルゴリズムに依存しない下限を提供します。さらに、再構成の堅牢性を測定誤差とノイズに特徴付けるBinary $ epsilon $ -Stable Embeddingプロパティは、十分に多くのガウス測定値を持つLipschitz連続生成モデルを使用した1ビット圧縮センシングにも当てはまることを実証します。さらに、結果をニューラルネットワークの生成モデルに適用し、スパース性ベースのアプローチに比べて大幅な改善を実証する概念実証の数値実験を提供します。
Entropy Minimization vs. Diversity Maximization for Domain Adaptation
ドメイン適応のためのエントロピー最小化と多様性最大化
URL:http://arxiv.org/abs/2002.01690v1
この論文の概要(機械翻訳による和訳)
エントロピー最小化は、教師なしドメイン適応(UDA)で広く使用されています。しかし、既存の研究では、エントロピーの最小化は単純なソリューションの崩壊につながる可能性があることを明らかにしています。この論文では、多様性の最大化をさらに導入することにより、些細な解決策を避けることを提案します。 UDAの可能な最小ターゲットリスクを達成するために、多様性の最大化はエントロピー最小化と精巧にバランスが取れている必要があることを示します。提案された最小エントロピーダイバーシティ最大化(MEDM)は、敵対的学習を使用せずに確率的勾配降下法によって直接実装できます。経験的証拠は、MEDMが4つの一般的なドメイン適応データセットで最先端の方法よりも優れていることを示しています。
Concept Whitening for Interpretable Image Recognition
解釈可能な画像認識のためのコンセプトホワイトニング
URL:http://arxiv.org/abs/2002.01650v1
この論文の概要(機械翻訳による和訳)
ニューラルネットワークは、レイヤーを横断するときにコンセプトについて何をエンコードしますか?機械学習の解釈可能性は間違いなく重要ですが、ニューラルネットワークの計算を理解するのは非常に困難です。隠されたレイヤーの内側を見る試みは、誤解を招く、使用できない、または潜在的なスペースに依存して、所有していない可能性のあるプロパティを所有する可能性があります。この作業では、ニューラルネットワークを事後的に分析するのではなく、コンセプトホワイトニング(CW)と呼ばれるメカニズムを導入して、ネットワークの特定のレイヤーを変更し、そのレイヤーに至るまでの計算をよりよく理解できるようにします。コンセプトホワイトニングモジュールがCNNに追加されると、潜在空間の軸を目的のコンセプトに合わせることができます。実験により、CWを使用すると、予測パフォーマンスを損なうことなく、ネットワークがレイヤー上で概念を徐々に学習する方法をより明確に理解できることがわかります。
Graph matching between bipartite and unipartite networks: to collapse, or not to collapse, that is the question
二部ネットワークと単部ネットワーク間のグラフマッチング:崩壊するか、崩壊しないか、それが問題です
URL:http://arxiv.org/abs/2002.01648v1
この論文の概要(機械翻訳による和訳)
グラフマッチングでは、ネットワーク全体で共有構造を最大化するために、2つのラベルのないグラフの頂点を整列します。この論文では、一致するグラフの1つが2部ネットワークであり、1部が1部ネットワークであるという一般的な設定に対処します。一般に、二者間ネットワークは折り畳まれるか、または一者グラフに投影され、グラフのマッチングは古典的な設定のように進みます。これは、ノイズの多いエッジ推定と情報の損失につながる可能性があります。無向グラフィカルモデルを使用して、2部グラフと1部グラフ間のグラフマッチング問題を定式化し、崩壊せずにこのモデルとのアライメントを見つける方法を紹介します。二部ネットワークを単部に変換する素朴なアプローチ、および共著者引用ネットワークペアと脳の構造的および機能的データを含む、シミュレートされたデータネットワークおよび実際のデータネットワークで達成されたパフォーマンスの向上を示します。
Simultaneous prediction and community detection for networks with application to neuroimaging
ニューロイメージングへの応用によるネットワークの同時予測とコミュニティ検出
URL:http://arxiv.org/abs/2002.01645v1
この論文の概要(機械翻訳による和訳)
ネットワークのコミュニティ構造は多くの異なるドメインで観察されており、教師なしのコミュニティ検出は文学で多くの注目を集めています。ネットワーク分析の焦点は、ネットワーク自体を分析するだけでなく、他の予測タスクや推論タスクでネットワーク情報を使用する方向にますますシフトしています。特に、神経画像アプリケーションでは、脳のネットワークは複数の被験者に利用可能であり、目的はしばしば関心のある表現型を予測することです。コミュニティ構造は脳ネットワークの特徴であることがよく知られており、通常は異なる機能を担う脳の異なる領域に対応しています。通常、健常者の脳のコネクトームにクラスタリング手法を適用することによって得られる、そのような領域への脳の標準的な分割があります。しかし、目標が表現型を予測するか、異なる状態を区別する場合、健康な被験者の無関係なセットからのこれらの静的コミュニティは予測に最も有用ではないかもしれません。ここでは、特定の応答を予測するのに最も役立つネットワークのコミュニティへのパーティションを見つけることを目的とした、監視されたコミュニティ検出の方法を示します。予測損失関数と組み合わせたブロック構造の正規化ペナルティを使用し、スペクトル法とADMM最適化アルゴリズムの組み合わせを使用してソリューションを計算します。スペクトルクラスタリング手法は、重み付き確率ブロックモデルの下で正しいコミュニティを回復することを示します。この方法は、シミュレートされた脳ネットワークと実際の脳ネットワークの両方を実行し、タスク依存の脳領域のアイデアをサポートします。
Structural Deep Clustering Network
構造的ディープクラスタリングネットワーク
URL:http://arxiv.org/abs/2002.01633v1
この論文の概要(機械翻訳による和訳)
クラスタリングは、データ分析の基本的なタスクです。最近、主にディープラーニングアプローチからインスピレーションを得たディープクラスタリングは、最先端のパフォーマンスを実現し、かなりの注目を集めています。現在のディープクラスタリング方法は、通常、ディープラーニングの強力な表現機能(たとえば、オートエンコーダー)によってクラスタリング結果を向上させ、クラスタリングの効果的な表現を学習することが重要な要件であることを示唆しています。ディープクラスタリング手法の強みは、データの構造ではなく、データ自体から有用な表現を抽出することです。これは、表現学習でほとんど注目されません。グラフ構造のエンコードにおけるグラフ畳み込みネットワーク(GCN)の大成功に動機付けられ、構造情報をディープクラスタリングに統合するための構造的ディープクラスタリングネットワーク(SDCN)を提案します。具体的には、オートエンコーダーによって学習された表現を対応するGCNレイヤーに転送する配信演算子と、これら2つの異なるディープニューラルアーキテクチャを統合し、モデル全体の更新をガイドするデュアル自己監視メカニズムを設計します。このように、低次から高次までのデータの複数の構造は、オートエンコーダによって学習された複数の表現と自然に結合されます。さらに、配信演算子を理論的に分析します。つまり、配信演算子を使用すると、GCNは高次グラフ正則化制約としてオートエンコーダー固有の表現を改善し、オートエンコーダーはGCNの過剰な平滑化問題を軽減します。包括的な実験を通して、提案モデルが常に最新の技術よりも優れた性能を発揮できることを実証します。
Improved Subsampled Randomized Hadamard Transform for Linear SVM
線形SVMの改善されたサブサンプリングランダム化アダマール変換
URL:http://arxiv.org/abs/2002.01628v1
この論文の概要(機械翻訳による和訳)
サブサンプリングされたランダム化アダマール変換(SRHT)は、$ d $次元のデータを$ O(dlog(d))$時間で$ r $次元空間($ r ll d $)に効率的に投影できる一般的なランダム投影法です。機械学習における高次元の課題に対処するために広く使用されています。 SRHTは、入力データ行列$ mathbf {X} in mathbb {R} ^ {n times d} $をRandomizedWalsh-Hadamard Transformで回転させ、続いて回転した行列で均一な列サンプリングを行うことで機能します。 SRHTの利点にもかかわらず、SRHTの1つの制限は、特定のデータセットの特定のプロパティを考慮せずに新しい低次元埋め込みを生成することです。したがって、このデータに依存しないランダム射影法は、特定の機械学習タスク、たとえば分類に使用すると、パフォーマンスが低下したり不安定になる可能性があります。この制限を克服するために、線形SVM分類のコンテキストでランダム投影にSRHTを使用する効果を分析します。分析に基づいて、重要なサンプリングと決定論的なトップ$ r $サンプリングを提案して、均一なサンプリングSRHTの代わりに効果的な低次元埋め込みを生成します。さらに、新しい教師なし不均一サンプリング法も提案しました。実験結果は、提案された方法が、6つの現実のデータセットでSRHTや他のランダム投影法よりも高い分類精度を達成できることを示しています。
Revisit to the Inverse Exponential Radon Transform
逆指数ラドン変換の再検討
URL:http://arxiv.org/abs/2002.01622v1
この論文の概要(機械翻訳による和訳)
この再訪では、数学的な関心と核医学放射イメージングなどの医療用途の両方から過去3年間で調査されてきた逆指数ラドン変換の分析方法に関する調査を行います。古典的な反転式の導出は、逆減衰ラドン変換用に開発された最近の議論によるものです。この導出により、指数パラメータを複素定数にすることができます。これは、磁気共鳴イメージングやテンソル場イメージングなどの他のアプリケーションに役立ちます。この調査には、有限ヒルベルト変換を使用して180度のデータから正確な再構築を処理する新しい手法も含まれています。 2つの実用的に重要な被験者に特別な治療が支払われました。 1つは、ハーフスキャンデータやトランケートスキャンデータなどの部分測定からの正確な再構築であり、もう1つは発散ビームデータからの再構築です。再構築におけるノイズ伝播は、数学的推論よりも発見的な議論で触れられます。いくつかの古典的な再構成アルゴリズムの数値的実現が含まれています。結論として、今後さらに調査するために、いくつかのトピックについて説明します。
Fast and Robust Comparison of Probability Measures in Heterogeneous Spaces
異質な空間での確率測定の高速でロバストな比較
URL:http://arxiv.org/abs/2002.01615v1
この論文の概要(機械翻訳による和訳)
独自のジオメトリを備えた分布を比較する問題は、さまざまな設定で発生します。グラフ、高次元の点群、形状、生成モデルを比較するとき。 Gromov Wasserstein(GW)の距離は通常、このような比較を処理するための自然なジオメトリとして提示されますが、計算にはNP困難な問題の解決が含まれます。このペーパーでは、アンカーエネルギー(AE)およびアンカーワッサーシュタイン(AW)の距離、GWに対する単純な代替案を提案します。これは、各分布の各ポイントの表現を他のすべてのポイントへの距離の1D分布として構築します。スイープラインアルゴリズムを使用して、$ O(n ^ 2 log n)$のAE emph {exactly}を計算します。ここで、$ n $は、AEの単純な実装と比較して、各メジャーのサイズです$ O(n ^ 3 )$努力。これは準線形w.r.tです。問題自体の説明。 AWは、Sinkhornアルゴリズムを実行するための$ O(n ^ 2)$コストに加えて、単一の$ n ^ 3 $の作業を保留することができます。また、コスト値ではなくランクベースの基準を使用して、AEとAWの堅牢なバージョンを提案します。実験では、AEとAWの距離は、一般的なGW近似の計算コストの何分の1かで、3D形状比較とグラフマッチングで良好に機能することを示しています。
Exploratory Machine Learning with Unknown Unknowns
未知の未知数による探索的機械学習
URL:http://arxiv.org/abs/2002.01605v1
この論文の概要(機械翻訳による和訳)
従来の教師あり学習では、トレーニングデータセットには既知のラベルセットのグラウンドトゥルースラベルが付けられ、学習したモデルは見えないインスタンスを既知のラベルに分類します。この論文では、トレーニングデータセットに他のラベルと誤解されている未知のクラスがあり、したがって、それらの存在が与えられた監督から未知である新しい問題設定を研究します。未知の未知数は、不十分な特徴情報のためにトレーニングデータセットが不完全に認識されたラベルスペースによってひどく助言されているという事実に起因します。この目的のために、探索的機械学習を提案します。これは、未知の可能性のあるラベルを発見するために、特徴空間を積極的に増強することにより、トレーニングデータセットを検査および調査します。有効性は、合成データセットと実際のデータセットの両方で検証されています。
Linearly Constrained Neural Networks
線形制約付きニューラルネットワーク
URL:http://arxiv.org/abs/2002.01600v1
この論文の概要(機械翻訳による和訳)
既知の線形制約を明示的に満たすニューラルネットワークベースのモデルを設計するアプローチを示します。これを実現するために、ターゲット関数は、基礎となる関数の線形変換としてモデル化されます。この変換は、ターゲット関数の予測が制約を満たすように保証され、既知の物理学者から、より一般的には、以前にガウス過程に対して提示された建設的な手順に従って決定できるように選択されます。このアプローチは、シミュレートされた実データの例で実証されています。
Fine-Grained Urban Flow Inference
細粒度の都市フロー推論
URL:http://arxiv.org/abs/2002.02318v1
この論文の概要(機械翻訳による和訳)
都市の流れ監視システムにおける監視デバイスの遍在的な展開は、メンテナンスと運用に多大なコストをもたらします。展開されたデバイスの数を減らし、データの精度と粒度の劣化を防ぐための技術が必要です。この論文では、粗視化された観測に基づいて、acity全体のリアルタイムで細かな群集の流れを推測するためのアプローチを提示します。このタスクには、2つの課題があります。粗粒度と細粒度の都市フロー間の空間相関、および外部影響の複雑さです。これらの問題に対処するために、2つの主要な部分で構成される、UrbanFMというモデルを開発します。 2)さまざまな外部要因の影響を考慮することでパフォーマンスをさらに向上させる一般的な融合サブネット。この構造は、小規模なアップサンプリングに優れた効果と効率を提供します。ただし、UrbanFMで使用されるシングルパスアップサンプリングは、アップスケーリング率が高い場合には不十分です。したがって、元のタスクを複数のサブタスクに分解することにより、細粒度の都市フローの漸進的推論のためのカスケードモデルであるUrbanPyをさらに提示します。 UrbanFMと比較して、このような強化された構造は、大規模な推論タスクに適したパフォーマンスを示しています。
A Precise High-Dimensional Asymptotic Theory for Boosting and Min-L1-Norm Interpolated Classifiers
ブースティングおよびMin-L1-Norm補間分類器のための正確な高次元漸近理論
URL:http://arxiv.org/abs/2002.01586v1
この論文の概要(機械翻訳による和訳)
この論文では、統計的および計算的な観点から、分離可能なデータをブーストするための正確な高次元漸近理論を確立し、特徴(弱い学習者)の数pが過剰パラメーター化されたレジームでサンプルサイズnでスケーリングする設定を検討します。統計面では、アルゴリズムがトレーニングデータを補間し、経験的L1マージンを最大化する場合の、ブースティングの一般化エラーの正確な分析を提供します。ブースティングソリューションとグラウンドトゥルースの間の角度は明示的に特徴付けられます。計算面では、ブースティングが経験的L1マージンをほぼ最大化するときの停止時間の鋭い分析を提供します。さらに、マージンが大きいほど、アクティブな機能の割合が小さくなる(初期化がゼロ)ことがわかります。私たちの理論の中心には、凸幾何学からのツールを使用した最大L1マージンの詳細な研究があります。最大L1マージンは、新しい非線形方程式の新しいシステムによって正確に記述することができます。これは、新しい均一偏差引数を使用して調査します。理論の正確性を示すために、予備的な数値結果が提示されています。
ML4H Abstract Track 2019
ML4Hアブストラクトトラック2019
URL:http://arxiv.org/abs/2002.01584v1
この論文の概要(機械翻訳による和訳)
NeurIPS 2019で開催されたMachine Learning for Health(ML4H)ワークショップで受け入れられた要約のコレクション。一部の受け入れられた要約では、インクルードのオプトアウトを選択したため、このインデックスは完全ではありません。