卒業生とその進路

エッジ環境における知的情報処理に向けた低消費電力プロセッサアーキテクチャに関する研究


肥田 格

2018 年度 卒 /博士(情報科学)
平成30年度〜日本学術振興会特別研究員

博士論文の概要

本研究は、低電力で人工知能演算を実行できる汎用プロセッサの実現に向けた、CPUアーキテクチャおよびニューラルネットワーク・アクセラレータに関するものである。

今日の人工知能を活用した情報処理機構は、データセンターにおける高性能コンピュータが、エッジで収集されたデータを集中的に処理する仕組みを取っている。しかし、集積されるデータ量の爆発的な増加に伴い、データセンタの大電力化や通信レイテンシ問題が顕在化し始めており、エッジ側にも人工知能演算の機能を持たせて負荷を分散させる必要性が唱えられている。エッジ端末の多くは電池容量および計算性能が限られており、それらに人工知能を搭載するためには、電力的に効率よく推論・学習処理を行うハードウェアが欠かせない。そこで本研究では、エッジに組み込まれるプロセッサへの応用を見込み、(1)CPU自体の電力効率を向上させる汎用アクセラレータおよび学習型分岐予測器の開発、(2)不揮発性メモリをニューラルネットワーク・アクセラレータとして利用するための学習則の開発に取り組んだ。

CPUはあらゆる演算を実行できるが、その消費電力のうち演算由来の電力が占める割合は10\%ほどで、ほとんどの電力はメモリアクセスやCPU自体の制御で生じており、演算性能に対する電力効率が低いことが知られている。動的再構成アクセラレータは、大量の演算器を用いてプログラムの一部をCPUの代わりに並列処理することで、これらの非演算依存電力を縮小し、さらに実行速度も加速させる。また、プログラム実行中に演算器間の配線情報が動的に切り替えられるため多様なプログラムに対応できるが、この再構成時に生じる電力が却って全体の消費電力を引き上げてしまうことがあった。本研究では、プログラムのコントロール・データフローに着目して、演算器間配線のうちデータの依存性が変化し得るデータパスのみを動的に再構成し、柔軟性と電力効率を両立するアクセラレータを開発した。

演算以外の電力を削減する手法として、分岐予測器の高精度化も有効である。今日のRISC CPUは、およそ10段以上の深い命令パイプラインを有している。分岐予測の失敗は、パイプラインを一時停止して処理途中の命令をクリアし、さらにメモリから適切な命令やデータを読み出し直す必要が生じるため、パイプラインが深いプロセッサほど電力効率の低下を招く。本研究では、ベイズの定理に基づく統計的機械学習の手法を取り入れた分岐予測器を実際のソフトコアCPUへレジスタ転送レベルで組み込み、予測精度と消費電力をシミュレーションした。その結果、非学習型の分岐予測に対する高精度化に成功し、それに伴い消費電力が大きく削減され得ることを示した。

上述したようなCPUの高電力効率化をもってしても、低電力な人工知能プロセッサの実現には不十分である。これは、ニューラルネットワークの演算のほとんどがニューロンの出力信号とシナプス荷重の積和演算の繰り返しであり、ノイマン型アーキテクチャとの相性が良くないことに起因する。そこで次に、不揮発性抵抗変化型メモリをニューラルネットワーク専用アクセラレータとして利用するための、学習手法の開拓に取り組んだ。

抵抗変化型メモリの各抵抗素子をシナプス荷重と見なすと、メモリセル内の電圧と抵抗素子の間に成り立つオームの法則、およびメモリセル間の電流に成り立つキルヒホッフの法則により、一度のメモリ読み出し動作で推論演算を実行することができ、低電力なアクセラレータとしての応用が期待されている。本研究では、三次元積層されたメモリの空間的特徴を深層学習に利用するための、畳み込み深層ネットワークの学習法を開発した。本手法ではネットワークに対してlayer-wiseな教師なし事前学習を施し特徴抽出器としての機能を持たせ、転移学習への応用の可能性も示された。

また、より汎用的な全結合ネットワークのために、シナプス荷重の正負符号を初期値で固定して学習する手法を開発し、符号非制約下の場合と同等の汎化能力を学習し得ることを示した。本来のニューラルネットワークの結合重みは学習次第で正の値も負の値も取りうるのに対し、実世界に負の抵抗値は存在しない。そこで、これまでの先行研究では、1個の重みを2個の抵抗素子で表現し、同一の入力電圧に対する出力電流の差分をとることで、重みが正の場合と負の場合の両方に対応する必要があった。本学習法を用いると1個の重みを1個の抵抗素子で表現可能となり、面積効率の大きな改善が期待される。