スタブ ロボットは人間のふりをすると説得力が増すという研究結果 - Unite.AI
私達と接続

ロボット工学

ロボットは人間のふりをすると説得力が増すことが研究で示唆される

mm

公開済み

 on

人工知能の進歩により、デジタル媒体のみを通じて人々と対話する場合、潜在的に人間として通用するボットや機械が生み出されました。 最近、コンピューターサイエンスの研究者チームは、人間がロボットも人間であると信じている場合に、ロボット/機械と人間がどのように相互作用するかを研究しました。 ScienceDaily の報道によると調査の結果、人々はロボット/チャットボットが人間であると信じている場合、より説得力があると感じることがわかりました。

ニューヨーク大学アブダビ校のコンピューターサイエンス准教授、タラル・ラーワン氏は最近、ロボットと人間がどのように相互作用するかを調査する研究を主導した。 実験結果は、 ネイチャーマシンインテリジェンス 人間と機械の協力における透明性と効率のトレードオフと呼ばれるレポートで。 研究の過程で、被験者はパートナーと協力ゲームをプレイするように指示されました。パートナーは人間またはボットのいずれかです。

このゲームは古典的な囚人のジレンマをひねったもので、参加者はラウンドごとに協力するか裏切るかを決定しなければなりません。 囚人のジレンマでは、一方のプレイヤーが他のプレイヤーを犠牲にして利益を得るために、パートナーを裏切って裏切ることを選択する可能性があり、協力することによってのみ、双方が利益を確実に得ることができます。

研究者らは、パートナーの身元に関する正しい情報または不正確な情報を被験者に提供することで被験者を操作しました。 参加者の中には、パートナーが実際には人間であるにもかかわらず、ボットと遊んでいると言われた人もいました。 他の参加者は逆の状況にありました。 実験の過程で、研究チームは、パートナーがボットであると言われたときに、人々がパートナーに対して異なる扱いをするかどうかを定量化することができました。 研究者らは、ボットに対する偏見がどの程度存在するのか、そしてそのような態度が自分自身を識別するボットとのやり取りにどのような影響を与えるのかを追跡しました。

実験の結果、人間がボットも人間であると信じた場合、ボットはパートナーからの協力を引き出すのに効果的であることが実証されました。 しかし、ボットであることが判明すると、協力レベルが低下しました。 ラーワン氏は、多くの科学者や倫理学者は、AIがどのように意思決定を行うかについて透明性があるべきであることに同意しているが、他者とコミュニケーションする際のAIの性質についても透明性があるべきであるということはそれほど明確ではないと説明した。

昨年、Google Duplex は、その使用に代わって電話をかけたり予約をしたりできることをステージ デモで示し、非常に洗練された人間のような音声を生成することを示し、話題になりました。彼らがボットと話しているとは知らされていない。 Google Duplex のデビュー以来、多くの AI およびロボット倫理学者がこのテクノロジーに対する懸念を表明し、Google は次のように述べました。 エージェントに自分自身を識別させる 将来的にはボットとして。 現在、Google Duplex のみが使用されています 非常に限られた容量の中で。 もうすぐです ニュージーランドでの使用を参照, ただし、企業の営業時間を確認するだけです。 倫理学者らは依然として、この技術が悪用される可能性を懸念している。

ラハワン氏はこう主張する。 最近の研究は、透明性と引き換えにどのようなコストを喜んで支払うかを考慮する必要があることを示しています。

「そのようなシステムを開発するのは倫理的でしょうか? ボットが人間として活動することを禁止し、ボットが何者であるかを明らかにするよう強制すべきでしょうか? 答えが「はい」の場合、私たちの調査結果は、そのような透明性と引き換えに支払ってもよい効率コストの基準を設定する必要性を浮き彫りにしています。」

専門分野を持つブロガーおよびプログラマー 機械学習 & 深層学習 トピック。 ダニエルは、他の人が社会利益のために AI の力を活用できるよう支援したいと考えています。