このロボットは社会的に対話する方法を教えられていますが、残念ながら結果は満足のいくものではありませんでした
私たちが知っているロボットは、面白いを含む人間の仕事に多くのことを助けます。しかし、ロボットがロボットや人間自身と社会的相互作用を行うことはめったにない。
今、研究者はロボットをよりインタラクティブにする方法を探しています。マサチューセッツ工科大学(MIT)、コンピュータサイエンス、人工知能研究所(CSAIL)のコンピュータサイエンス研究者は、ロボットに人間や他のロボットとの対話方法を教えています。
この研究は、ロボットが仲間のロボットや人間とうまく対話する方法を教えるだけでなく、ロボット自体の中で適用できる人間の行動の側面を深く掘り下げるものです。
研究者たちは、ロボットが社会的および物理的なタスクを持つことを可能にする2Dシミュレーション環境を作り始めました。物理的なタスクの意味は、歩行や何かを取るなどの動きに基づく行動です。一方、社会的目標は、他のロボットが何をしようとしているかを推測し、それに基づいて行動します。それは別のロボットが何かをするのを助けるようなものです。
研究者が作成したロボットには3種類あり、1つ目は物理的な目的しか持っていませんが、2つ目は物理的および社会的な目的しか持っていませんが、すべてのロボットは物理的な目的しか持っていないと仮定しています。第三は、他の人がすべて社会的、物理的な目標を持っていることを前提としていますが、目標を達成するために他の人と力を合わせるなど、より高度な行動を取ります。
タスクを正常に実行する各ロボットは報酬を受け取ります。職務を遂行できない者は罰せられる。その社会的相互作用の過程で、研究者は98の異なるシナリオを作成しました。
そして、シナリオ全体がクリップに記録され、12人もの研究者が相互作用するロボットの約200のビデオクリップを見る必要があり、その後、彼らは彼らの物理的および社会的目標を推定しました。
残念ながら、この結果は、ロボットがまだ社会的相互作用をうまく行うことに苦労していることを示しています。なぜなら、研究者によると、ロボットは人間の複雑な推論スキルを持っていないからです。
「小さな赤ちゃんでも、助けや抑止のような社会的な相互作用を理解しているようですが、人間レベルの柔軟性などについてこの推論を行うことができる機械はまだありません。
それはまだ失敗しますが、彼らはこの研究が同様の研究のベンチマークになることを望んでいます。そこで止まらないため、3Dシミュレーションスペースを備えたより複雑な環境を作り出す予定です。