October, 20, 2022, San Diego--UC San Diegoをリーダーとするチームは、アルゴリズムの新システムを開発した。これにより4脚ロボットは、静的、動的障害を避けながら、困難な地形を歩行、走行することができる。
テストでは、同システムがロボットを誘導して、自律的に、素早く砂地、砂利、草地、枝や落ち葉に覆われた凸凹のダートヒルを操縦し、電柱、木々、藪、岩、ベンチあるいは人にぶつかることはなかった。ロボットは、忙しいオフィススペースもナビゲートした。箱、机あるいは椅子にぶつかることはなかった。
この成果により研究者は、捜索救助任務を行い、あるいは危険すぎて、人には困難な場所から情報を収集することができるロボットの構築に一歩近づいた。
チームは、10月23-27日、日本の京都で開催される2022インテリジェントロボットとシステム国際会議(OROS)で成果を発表する。
システムは、脚型ロボットを一段と汎用的にしている。ロボットの視覚と他の固有受容性感覚というセンシング法を統合した方法によるものである。これはロボットの運動感覚、方向性、スピード、位置、触覚、この場合は足下の地面の感覚を必要している。
Xiaolong Wang教授によると、現在、脚型ロボットを訓練して歩きナビゲートさせるほとんどのアプローチは、固有受容感覚または視覚のいずれかに依存しているが、同時に両方の利用はない。同氏は、UC San Diego、Jacobs工学部、電気コンピュータ工学教授、研究のシニアオーサ。
「一例では、盲目のロボットを触覚と地面を感じるだけで歩くように訓練するようなものだ。別の例では、ロボットは視覚だけで脚を動かすことを計画している。同時に2つを学習しない。われわれの研究では、固有受容性感覚とコンピュータビジョンを統合して脚型ロボットが効率的、滑らかに動き回れるようにする。整った環境ではなく、様々な困難な環境で、障害を避けながら動き回る」(Wang)。
研究チームが開発したシステムは、特殊な一連のアルゴリズム利用して、ロボット頭上の奥行きカメラからのリアルタイムデータとロボットの脚のセンサからのデータを融合する。これは簡単な作業ではなかった。「問題は、実世界の操作中、カメラからの画像受信に時々わずかな遅延があること。したがって、2つの異なるセンシング法は、常に同時到着しない」(Wang)。
チームのソリューションは、このミスマッチを2つの一連の入力をランダム化することによるシミュレーションであった。研究者は、これをマルチモーダル遅延ランダム化と言う。融合され、ランダム化された入力は、次にエンド・ツー・エンド的に強化学習ポリシーの訓練に使われた。このアプローチは、ナビゲーション中にロボットが素早く決断し、先行的に環境の変化を予測するのに役立った。したがってロボットは、様々なタイプの地形で人間のオペレータの助けを借りることなく、より速く動き、障害を巧みに回避することができた。
さらなる前進では、チームは脚型ロボットをさらなる多用途にしようと取り組んでいる。もっと困難な地形でも征服できるようにするためである。「現状、われわれは、ロボットを訓練して、歩行、走行、障害物の回避のような簡単な動作を可能にしている。次の目標は、ロボットが階段を上り下りする、石の上を歩く、方向を変えて障害を跳び越すことができるようにすることである」(Wang)。