ニューラルネットワーク分野論文まとめ【2020年02月14日arXiv公開】

アブストまとめ
Like0
お気に入り

2020年02月14日に発表されたニューラルネットワーク分野の論文2本のAbstractをまとめて和訳しました。

Synaptic Integration of Spatiotemporal Features with a Dynamic Neuromorphic Processor

動的ニューロモーフィックプロセッサと時空間機能のシナプス統合。

著者:Mattias Nilsson, Foteini Liwicki, Fredrik Sandin
URL:http://arxiv.org/abs/2002.04924v1

この論文の概要(機械翻訳による和訳)
スパイクニューロンは、シナプス前スパイクパターンの非線形シナプスおよび樹状突起の統合による時空間特徴検出を実行できます。ここでは、時空間スパイクパターンと、動的なシナプスの動的なシナプスをDYNAP-SEneuromorphicプロセッサのポイントニューロンでシナプス統合することを調査します。以前に提案された興奮性シナプスの抑制ペアを組み合わせて複数の入力を統合する方法を調査し、1つの抑制性シナプスが複数の興奮性シナプスと組み合わされるカゼインにその概念を一般化します。神経形態ニューロン回路の膜電位の測定と分析。デバイスの不一致により、異なるシナプスの組み合わせを選択することで、提案された方法で、ニューロンごとに10ミリ秒の変動性がある生物学的に関連するEPSP遅延を実現できることがわかりました。これらの結果に基づいて、DYNAP-SEの動的シナプスを備えた単一ポイントニューロンは、特定の時空間構造を持つシナプス前スパイクに選択的に応答できることを実証します。これにより、たとえば単一ニューロンの視覚的特徴調整が可能になります。

The Unreasonable Effectiveness of Deep Learning in Artificial Intelligence

人工知能におけるディープラーニングの不合理な効果

著者:Terrence J. Sejnowski
URL:http://arxiv.org/abs/2002.04806v1

この論文の概要(機械翻訳による和訳)
ディープラーニングネットワークは、スピーチ、キャプション写真を認識し、高いレベルのパフォーマンスで言語間でテキストを翻訳するようにトレーニングされています。統計量のサンプルの複雑さと非凸最適化理論に従っては不可能です。ただし、深層学習ネットワークのトレーニングと有効性のパラドックスが調査されており、高次元空間のジオメトリに洞察が見つかっています。深層学習の数学的理論は、それらがどのように機能するかを明らかにし、さまざまなネットワークアーキテクチャの長所と短所を評価し、大きな改善をもたらします。ディープラーニングは、人間がデジタルデバイスと通信するための自然な方法を提供し、人工知能を構築するための基礎となります。ディープラーニングは、大脳皮質のアーキテクチャと、計画と生存に不可欠な他の脳領域に見られる自律性と一般的な知性に関する洞察に触発されましたが、これらの目標を達成するには大きなブレークスルーが必要です。

分野/キーワード:

論文ナビに登録すると・・・
①最新情報をメールでお届け!
  • 話題のニュース一覧
  • 注目のプレスリリース
  • 論文解説・最近のイベント
②論文解説記事の投稿
  • ご自身の論文の解説
  • 読んだ論文のメモ
  • 研究に関する情報のシェア
③セミナー情報の宣伝
  • ご自身が主催するイベント情報を投稿してシェア
  • ユーザーで作るセミナー日程まとめに参加
【併せて読みたい関連記事】
X
- Enter Your Location -
- or -
パスワード再発行
お気に入り
  • Total (0)
0