キーワード: スパイキングニューラルネットワーク、テンポラルコーディング、エッジAI
[ 発表者 ]
- 酒見 悠介 (千葉工業大学 数理工学研究センター 上席研究員/東京大学国際高等研究所ニューロインテリジェンス国際研究機構(WPI-IRCN) 連携研究者)
- 山本 かけい (マサチューセッツ工科大学)
- 細見 岳生 (NEC)
- 合原 一幸 (東京大学 特別教授・名誉教授/東京大学国際高等研究所ニューロインテリジェンス国際研究機構(WPI-IRCN) 副機構長/千葉工業大学 数理工学研究センター 主席研究員)
[ 概要 ]
酒見悠介 (千葉工大)、山本かけい (MIT)、細見岳生(NEC)、合原一幸 (東大)は、脳の情報処理機構を模倣するスパイキングニューラルネットワーク (SNN)※1において、予測精度を保ちながらニューロンの発火頻度を低減する手法を開発した。特に、テンポラルコーディングと呼ばれる発火頻度が極めて少ない情報処理機構において、発火頻度を更に半減させることを実証しました。発火頻度の低減は消費エネルギーの低減をもたらすため、本技術は低電力性が求められるエッジAI※2において今後重要なものになると考えられます。この成果は、2023年12月21日に査読付き国際学術雑誌「Scientific Reports」で公開されました。
■背景
スパイキングニューラルネットワーク (SNN) ※1はスパイク信号による情報処理が可能な、脳を模倣した人工知能モデルです。SNNは専用ハードウェア化を行うことで既存の深層学習モデルよりも高いエネルギー効率を達成することが可能であるため、エッジAI※2への応用が期待されています。
SNNの専用ハードウェアにおいては、主としてスパイクの生成(発火)によって電力が消費されるために、少ないスパイク数(発火頻度)によって情報処理を行うことが重要です。これを実現するものとして、スパイクの時間情報を活用したテンポラルコーディングによる学習アルゴリズムが開発されてきました。その中でも、Time-to-First-Spike Coding (TTFS)と呼ばれるコーディングは、1ニューロンあたり、最大1回までしか発火しないという制約を課すことで、高い学習性能と高いエネルギー効率を両立できることが知られています。しかし、この制約を越えて発火が抑制可能かどうかは、ほとんど調べられていませんでした。
■ 内容
本研究では、TTFSコーディングされたSNN (TTFS-SNN)を更に発火抑制するための学習手法を開発しました。とくに、発火イベントに着目した発火抑制手法であることからSSR (Spike-Timing-Based Sparse-Firing Regularization)と名付けました。一般的な教師あり学習で用いられるコスト関数に、SSR正則化項を加えることで、発火を抑えつつ、データセットを学習させることができます。本研究では、異なる観点で二つのSSR手法、M-SSRとF-SSRを導出しました。図1にそれぞれの導出方法の概要を示しています。重要なのは、どちらの正則化関数も、発火時刻およびそれに関連した重みの情報のみを用いる点です。この特徴により、発火現象を直接的に抑制させることが可能になっています。
図2に、M-SSRを導入した時の学習結果の様子を示しています。正則化強度が強いほど、中間層の発火は低減されていますが、出力層の発火時刻に大きな変化はないことがわかります。これは、発火を低減しても、予測が可能なことを示しています。このことをより詳細に調べるために、SSR正則化強度を変化させた場合の、発火率と予測精度のトレードオフについて調べました。図3に示すように、SSR正則化を導入しない場合には、ネットワーク全体での発火は1ニューロン当たり平均0.5回でしたが、正則化を導入することで、1ニューロン当たり平均0.2回程度まで予測精度を著しく劣化させずに低減させることがわかります。
なお、SNNの発火を低減させる研究にはいくつか先行研究が存在しています。しかし、それらの研究は、スパイクの発生頻度に情報が込められるレートコーディングを基にしており、また離散時刻系のSNNに限定されていました。これらの手法は、膜電位を低減しているとみなすことが出来るので、本研究におけるM-SSRと同様の発想です。しかし、M-SSRでは、極限操作により、膜電位を直接的に扱わない時刻型の正則化関数の導出に成功しました。これは、本研究が連続時間系のSNNをもとに学習アルゴリズムを構築したことによって初めて可能になっております。さらに、膜電位を低減する従来手法に比べて、M-SSRはより優れた発火率―予測精度トレードオフ特性を示すことができました(図4)。
■ まとめと展望
エッジAIのように高いエネルギー効率が求められる場合には、エネルギー効率を最適化した人工知能モデルが必要になります。一般的な深層学習で用いられている人工ニューラルネットワーク(ANN)において、そのような技術はネットワークの軽量化技術として発展しており、重み量子化、枝刈り、蒸留などの技術が知られています。今回開発した、発火頻度を抑制する手法は、SNNに特有のネットワーク軽量化技術と考えることができます。また重要なことは、この軽量化技術はSNNの専用ハードウェアにおいてのみ有効になる点です。私たちは、アルゴリズム研究だけでなく、ハードウェア研究にも取り組んでいるため、このような新しい軽量化技術にいち早く着手することができました。GPUなどのデジタルハードウェア上で効率的に動作させる人工知能モデルの研究は成熟しつつありますが、アナログハードウェア上で効率的に動作させる人工知能モデルの研究は発展途上にあります。今後は、SNNのアルゴリズム・モデルの研究に加え、アナログハードウェア自体の開発にも取り組み、エッジAIの実装を目指していきます。
※1) スパイキングニューラルネットワーク (SNN)
スパイキングニューロンによって構築されるネットワークであり、脳により近い特性を持つ、スパイクとよばれる二値の短パルス信号による情報処理を行うことができます。スパイキングニューロンは、入力スパイクに依存して膜電位が時間変化し、膜電位が発火閾値を超えるとスパイクを発生し、同時に膜電位がリセットされます。発生したスパイクは、接続された他のニューロンへと伝達されます。
※2) エッジAI
車載システムやロボット上でのAI動作は低レイテンシ性が重要であるため、センサーから得られたデータをその場で処理することが求められ、それを実現する技術をエッジAIと呼びます。エッジAIの技術課題の一つとして高い電力効率が挙げられ、人工知能モデルの軽量化や、専用ハードウェア化が取り組まれています。
■ 論文情報
論文誌: Scientific Reports
論文題目: Sparse-Firing Regularization Methods for Spiking Neural Networks with Time-to-First-Spike Coding
著者: Yusuke Sakemi、Kakei Yamamoto、Takeo Hosomi、and Kazuyuki Aihara
URL: https://www.nature.com/articles/s41598-023-50201-5
DOI: 10.1038/s41598-023-50201-5
出版日: 2023年12月21日
■ 謝辞
本研究の一部は、JSTさきがけJPMJPR22C5、セコム科学技術振興財団、日本電気株式会社、JST Moonshot R&D Grant Number JPMJMS2021、AMED under Grant Number JP21dm0307009、the International Research Center for Neurointelligence (WPI-IRCN) at The University of Tokyo Institutes for Advanced Study (UTIAS)、JSPS KAKENHI Grant Number JP20H05921から助成を受けて行われました。
<お問い合わせ先>
千葉工業大学 数理工学研究センター 上席研究員
酒見 悠介
【取材・大学広報関連に関する問い合わせ先】
千葉工業大学 入試広報部
大橋 慶子