私たちの「心」が、テクノロジーの力で可視化される時代の足音が聞こえてきました。2019年07月08日、芝浦工業大学の菅谷みどり教授率いる研究チームが、脳波と心拍のデータを組み合わせることで、人間の複雑な感情を推定する画期的な技術を発表したのです。このシステムは、体に装着したセンサーから得られる生体情報を人工知能(AI)が解析し、今の気持ちを「喜怒哀楽」などの指標で分類します。
SNS上では「ついにロボットが空気を読むようになるのか」「リハビリの辛さを分かってくれる存在は心強い」といった、驚きと期待が入り混じった声が数多く寄せられています。これまでも脳波だけで感情を探る試みは存在しましたが、脳が活発に動いているかは判別できても、それが「喜び」なのか「怒り」なのかといった詳細な感情の区別までは困難でした。今回の手法は、心拍の変化を併用することでその精度を飛躍的に高めています。
心拍数と脳波の相関関係から導き出される「感情の地図」
研究チームは、被験者に脳波計と脈拍計を装着してもらい、計算や車の運転といった様々なシチュエーションでの生体反応を詳細に観察しました。ここで重要なキーワードとなるのが「脳波」と「心拍の間隔」です。脳波とは脳の活動に伴って生じる微弱な電気信号のことで、リラックス時にはα波、緊張時にはβ波といった特徴的な波形が現れます。これに心臓の鼓動のリズムを組み合わせるのが今回の技術の肝と言えるでしょう。
例えば、暗算がスムーズに進んでいたり、車の運転が快適だったりする場面では、心拍の間隔がゆったりと長くなり、脳波もリラックス状態を示します。しかし、計算ミスをした瞬間や、走行中にトラックが急に割り込んできた場面では、心拍の間隔が急激に短くなり、脳波には明らかな緊張のサインが刻まれます。研究では、こうした客観的なデータと被験者の自己申告による主観的な感情をAIに学習させ、高精度な推定ソフトを完成させました。
リハビリ現場の救世主へ!AIロボットが寄り添う医療の明日
この技術の最大の魅力は、単なるデータ測定に留まらず、読み取った感情に合わせて対話を行う「応援ロボット」の開発に繋がっている点です。現在、研究チームは患者さんの心の動きを察知して、最適なタイミングで声をかけるロボットの試作を進めています。辛いリハビリに心が折れそうなとき、「今は少し疲れていますね、一緒に頑張りましょう」とロボットが優しく寄り添ってくれたなら、患者さんのモチベーションは大きく変わるはずです。
将来的には、表情や行動から感情を読み取ることが難しい、うつ病の方やALS(筋萎縮性側索硬化症)の患者さんのケアへの応用も期待されています。ALSとは、意識や感覚ははっきりしているものの、全身の筋肉が徐々に動かなくなる難病ですが、この技術があれば「声なき声」を医師や家族に届けられるかもしれません。テクノロジーが単なる道具ではなく、人の心に深く共鳴するパートナーへと進化していく過程に、私は無限の可能性を感じています。
コメント