ノーベル賞「場所細胞」とSLAM

ノーベル医学・生理学賞が発表されましたね。

http://www.nikkei-science.com/?p=44210

脳細胞のうち、「場所細胞」と呼ばれるものを発見・発展させた3氏に与えられたそうです。

ネズミが知らないところを歩き回るとき、「大体今このあたりかな」というのを、脳の海馬と言う場所に並んだ細胞のどれかが活動することで示す、ということを発見したということですね。

内容はいろいろなところで紹介されているのでおいといて、「全脳アーキテクチャ」という勉強会では場所細胞の話とともに、それを参考にしたRat-SLAMというアルゴリズムが紹介されてます。SLAM(Simultaneous location and mapping) というのはロボットが歩き回るときに、今いる場所を認識するのと同時に地図をつくる方法の様です。そして、場所細胞を参考にした方法として、Rat-SLAMというものがあるようです。

http://www.sig-agi.org/wba/3

https://code.google.com/p/ratslam/

というわけで、関連する文章などをざっくり読んでみました。

ロボットが自分の位置を知るくらいは、地磁気センサーや加速度計、タイヤの回転計やGPSの情報を使えばできそうに思えますが、地図がなく、GPSも見えない建物の中のような場合には、センサの誤差がどんどん積み重なって、迷子になってしまうようです。そこで、Rat-SLAMでは、自分の内部のセンサから作った場所の情報のほかに、見える景色などの情報を組み合わせて、居場所を修正するのがポイントのようです。
つまり、「あ、ここはさっき来たところだ」、というのに気が付いて地図や居場所を直す訳です。

RatSLAMの動作は、まず、PoseCell という、「場所(x,y)」と「向いている方向」を各々の属性として持ったセルがたくさん並んだものを作ります。これが地図になります。( 場所細胞に対応。ただし実際のネズミの脳のモデルには方向は無いそうです)。

次に、車輪などから得られた情報から、今いる場所のセルを選んで活動させます。今いる場所は絶対座標ではなくて、さっきまでいた場所と向きに、今走った距離と向きの変化量を加えて作り出すようです。(一点にならないようにぼやかす様です)

次に、今見えている画像の情報の特徴を分析して、こちらもたくさんのセルのうちの一つに割り振ります(Local View Cell)。そして、そのとき活性化しれている場所のPoseCell(今いると思っている場所)との間の関連付けを強化します。さらに、以前見たことのある景色を見た場合には、以前に結び付けた場所のセルも活動させます。(オリジナルの論文では、色のついた円柱のある環境を想定しているらしいですが、特徴が抽出・比較できれば、どこでも使えるのだと思います。)

こうしてやると、場所と景色の両方から活動を強化されたセルの活動が強くなるので、思った場所がずれていても、だんだんと関係が一つに収れんしてゆくのではないかと思います(読み切れなかった…)。結果として地図は「PoseCell のここにいる時には、こんな景色が見える」、という形で作られていく様です。

 

さて、これは場所の地図を作るこのアルゴリズムでしたが、場所に限らずいろんなものの関係を、同じような仕組みで結び付けられそうです。そういう記憶は「エピソード記憶」(昔あったことを思い出せる)と呼ばれるもので、海馬の役割と考えられているようです。そんな方向に広がりそうなのも、賞をとった理由なのかもしれません。

脳の中で起こる学習には、海馬でする「エピソード記憶」、小脳でする「教師有り学習」(お手本通りできるようになる)、基底核でする「強化学習」(うまくいったら、その時にやったことを覚えておく)、などのいろいろな学習があって、そういう基本的な学習の機構をいろいろ組み合わせれば、人の記憶のようなものも、実現できるのかもしれません。