2019年7月13日(土)に、日本科学未来館 未来館ホールにて、IRCN設立以来初めての一般講演会「予測する脳・発達する脳」を開催しました。 
講演会はヘンシュ貴雄機構長の挨拶に始まり、幼少期の言語習得と環境の影響(辻晶主任研究者)、人間の知能の理解と支援を目指す認知発達ロボティクス(長井志江主任研究者)に関する最先端の研究についての講演が行われました。ヒトの脳の研究について生物学的手法と工学的手法の両面からアプローチするというIRCNの融合研究の一端を集まったおよそ250人の来場者に紹介しました。

挨拶のなかでヘンシュ機構長からはIRCNはヒトの知性はどこから生じるかという究極の問いに迫っており、そのなかでも遺伝子の異常による神経回路発達の異常が行動の異常にどうつながるのかを研究することで精神疾患の解明につなげるほか、神経発達原理の解明からこれまでにない省エネルギーかつ高機能の人工知能の開発を目指すという設立の目的についての説明がありました。

辻主任研究者の講義では赤ちゃんは生後すぐの状態でも母国語のリズムを識別できること、さらにはより効率的に母国語を認識するために必要性が少ない母国語以外の発音への認識が弱くなるため、10か月の赤ちゃんでもすでに日本人はRとLの識別が難しいといった音の認識についての説明がありました。そのうえで赤ちゃんにとっては学習において相手からの反応があること、随伴性が重要で、随伴性を持つヒトやものから学ぶことによって学習能力が上がることが指摘されました。今後、辻主任研究者は赤ちゃんにとってはどのような状況・環境が学習に適しているのかを調べていく研究を進めていく方向です。

長井主任研究者からは、予測するということはヒトの脳にとって最も基礎的で重要な能力の一つであり、脳を理解するうえでヒトを見るだけではなくヒトのようにふるまうロボットをつくることによってより理解を深めるという研究内容の説明がありました。その例として、ヒトの情動を推定・模倣する神経回路モデルに表情やジェスチャー、発話などの感覚信号を与え、そのなかで重要な部分のみを圧縮・抽象化し、その抽象化したものから再度ヒトの表情等を再現するという学習をさせると、1万回程度の学習でヒトの情動を認識・識別することができるようになること、またさらに同じモデルに怒りの声などの聴覚信号だけを与えると、そこから視覚信号を想起し、情動を推定することができるようになるという研究が紹介されました。これらは赤ちゃんが周りの人との交わりによって感情を学習することや、ヒトがイマジネーションを利用して推定能力を高めているということをロボットを通じて理解したということになります。

講演後には『Brains』など脳にまつわる曲も手がけ作曲家として活躍している望月京明治学院大学教授をモデレーターに迎え座談会を行いました。
議論のなかで自閉スペクトラム症の人がこれまでに経験したことのない環境下において大声で叫んだりするのは、予測誤差(ヒトの感覚機能から得ている信号と経験や知識から“こういうことが起こっているだろう”と予測する信号との間に存在する誤差)に対してとても敏感な傾向があるため、自分が出した声を聞くことによって、予測誤差が少ない状況を作り落ち着こうとしている行動であるという説明が長井主任研究者からありました。
また辻主任研究者からは赤ちゃんが成長するにつれて母国語からほかの言語への興味を持ち始める理由の1つも予測誤差であり、母国語に対する予測誤差がなくなるにつれてほかの言語に興味を持つのではという意見が、さらにはヒトとヒトがコミュニケーションをとるのは予測誤差がそこにあるからでそこを埋めるための手段の一つであるという意見が長井主任研究者から出るなど、予測誤差についての議論が白熱しました。

ご参加いただいた皆様、誠にありがとうございました。