2020年02月14日に発表されたニューラルネットワーク分野の論文2本のAbstractをまとめて和訳しました。
この記事の見出し
Synaptic Integration of Spatiotemporal Features with a Dynamic Neuromorphic Processor
動的ニューロモーフィックプロセッサと時空間機能のシナプス統合。
URL:http://arxiv.org/abs/2002.04924v1
この論文の概要(機械翻訳による和訳)
スパイクニューロンは、シナプス前スパイクパターンの非線形シナプスおよび樹状突起の統合による時空間特徴検出を実行できます。ここでは、時空間スパイクパターンと、動的なシナプスの動的なシナプスをDYNAP-SEneuromorphicプロセッサのポイントニューロンでシナプス統合することを調査します。以前に提案された興奮性シナプスの抑制ペアを組み合わせて複数の入力を統合する方法を調査し、1つの抑制性シナプスが複数の興奮性シナプスと組み合わされるカゼインにその概念を一般化します。神経形態ニューロン回路の膜電位の測定と分析。デバイスの不一致により、異なるシナプスの組み合わせを選択することで、提案された方法で、ニューロンごとに10ミリ秒の変動性がある生物学的に関連するEPSP遅延を実現できることがわかりました。これらの結果に基づいて、DYNAP-SEの動的シナプスを備えた単一ポイントニューロンは、特定の時空間構造を持つシナプス前スパイクに選択的に応答できることを実証します。これにより、たとえば単一ニューロンの視覚的特徴調整が可能になります。
The Unreasonable Effectiveness of Deep Learning in Artificial Intelligence
人工知能におけるディープラーニングの不合理な効果
URL:http://arxiv.org/abs/2002.04806v1
この論文の概要(機械翻訳による和訳)
ディープラーニングネットワークは、スピーチ、キャプション写真を認識し、高いレベルのパフォーマンスで言語間でテキストを翻訳するようにトレーニングされています。統計量のサンプルの複雑さと非凸最適化理論に従っては不可能です。ただし、深層学習ネットワークのトレーニングと有効性のパラドックスが調査されており、高次元空間のジオメトリに洞察が見つかっています。深層学習の数学的理論は、それらがどのように機能するかを明らかにし、さまざまなネットワークアーキテクチャの長所と短所を評価し、大きな改善をもたらします。ディープラーニングは、人間がデジタルデバイスと通信するための自然な方法を提供し、人工知能を構築するための基礎となります。ディープラーニングは、大脳皮質のアーキテクチャと、計画と生存に不可欠な他の脳領域に見られる自律性と一般的な知性に関する洞察に触発されましたが、これらの目標を達成するには大きなブレークスルーが必要です。