ロボティクス
研究者がロボットに基本的な共感を実現させるロボットを開発

最近の研究では、ロボットに基本的な共感を与えることに成功し、ロボットがロボットパートナーの目標と行動を予測できるようにしました。
コロンビア大学の工学および応用科学学校のエンジニアチームは、ビデオの数フレームに基づいてパートナーロボットの行動と目標を成功的に予測できるロボットを設計しました。エンジニアたちは、ロボットとそのAIが原始的な共感の形式を示しており、将来の研究がロボットに「心の理論」を与えるのを助けることができると主張しています。
最近の研究は、コロンビア工学のクリエイティブマシンズラボのHod Lipson教授によって率いられました。Lipsonと彼のチームによって行われた研究は、ロボットが他のロボット、そして潜在的に人間の目標を理解し予測できるようにするためのより広範な学術的な取り組みの一部です。この予測は、センサーによって収集されたデータ、主に視覚データの分析によって行われる必要があります。
ロボットがロボットを観察する
研究者チームは、約6平方フィートの面積のプレイペン内で作動するロボットを構築しました。ロボットは緑の円を探すようにプログラムされており、緑の円に向かって移動しました。しかし、プレイペン内のすべての緑の円はロボットから見えませんでした。ターゲットの緑の円のうち、ロボットの開始位置から見えるものと、ロボットの開始位置から見えないものがありました。後者の緑の円は、大きなカードボックスの後ろに隠されていました。
2つ目のロボットは、約2時間にわたってロボットを観察するようにプログラムされました。パートナーロボットを観察した後、観察ロボットは、パートナーロボットの目標と行動をほとんどの場合に予測することができました。観察ロボットは、カードボックスの後ろに緑の円が見えなかったことを知らないにもかかわらず、他のロボットが取るパスの98%を正確に予測することができました。
研究の共同著者であるBoyuan Chenは、ScienceDailyを通じて、研究の結果はロボットが他のロボットの視点から世界を解釈する能力を示していることを説明しました。
「観察ロボットが、パートナーロボットの立場に立って、パートナーロボットが緑の円を自分の視点から見ることができるかどうかを理解する能力は、原始的な共感の形式であるかもしれません」とChenは説明しました。
研究チームは、観察ロボットが探索ロボットの短期的な行動を予測できることを期待していました。しかし、研究チームが発見したのは、観察ロボットが短期的な行動のみを予測するのではなく、わずか数フレームのビデオに基づいてより長期的な行動を正確に予測できることです。
「心の理論」
明らかに、探索ロボットが示す行動は、人間が行う多くの行動よりも単純です。したがって、人間の目標と行動を予測することはまだ遠い話です。ただし、研究者たちは、人間とロボットの行動を予測する共通点は、「心の理論」を使用することであると主張しています。心理学的な研究によると、人間は約3歳のときに心の理論を発達させ始めます。心の理論は、協力、共感、そして欺瞞のために必要です。研究チームは、ロボット間の相互作用を駆り立てる技術に関するさらなる研究が、より洗練されたロボットを開発するのを助けることを希望しています。
上記のように、共感は通常、協力を可能にする肯定的な特性と見なされますが、欺瞞などのより否定的な行動にも必要です。誰かを欺くには、その人の欲求と意図を理解する必要があります。これにより、倫理的な疑問が生じます。ロボットが人間を欺くことができるようになると、悪意のある行為者が人間を操作して搾取するためにロボットを利用することを何が防ぐのでしょうか?
観察ロボットは画像データのみで訓練されたものですが、Lipsonは、原則的には人間の言語に基づいて同様の予測システムを設計することができると考えていると述べています。人々は、しばしば頭の中で物事を想像し、視覚的に考えているからです。
コロンビア研究チームの努力は、AIに心の理論と共感を与えるためのより広範な取り組みの一部です。Contact EngineのAIおよびイノベーションのディレクターであるEuan Matthewsは、最近、AIがより共感的になるためには、単一の意図だけでなく複数の意図を考慮する必要があると主張しました。人間は、しばしば複数の意図、矛盾する欲求、そして特定のトピックに対する感情を持っています。AIは、人間の意図性に対処する際により柔軟性を持つ必要があります。












