コヒレント特設ページはこちら

Science/Research 詳細

MIT、無人走行車に人のような推理力

June, 4, 2019, Cambridge--より人間的な推理力を自律走行車に持たせることを目的にMIT研究チームは、簡単な地図と視覚データだけを使って無人車輌が新しい、複雑な環境のルートをナビゲートできるようなシステムを開発した。
 人間のドライバーは、観察と簡単なツールを使い、以前に運転したことのない道路をナビゲートすることは、並外れて得意である。われわれは、周囲に見える物とGPS機器で見えるもの簡単に一致させ、自分がどこにいて、どこへ行く必要があるかを判断する。しかし、無人車輌は、この基本的な推理力で苦労している。あらゆる新規のエリアで、車輌は、まず全ての新しい道路を地図に入れ、分析しなければならない。これは非常に時間がかかる。また、システムは複雑なマップに依存している、通常3Dスキャンで生成されたものである。これらは、即座に生成し、処理するには、計算集約的である。
 International Conference on Robotics and Automationで発表された論文では、MITの研究チームは、自律制御システムを紹介した。このシステムは、ビデオカメラが供給するデータと簡単なGPSのようなマップだけを使って、狭いエリアの道路をナビゲートする人間ドライバの操舵パタンを「学ぶ」。すると、その訓練されたシステムは、人間ドライバを真似ることで、全く新しいエリアの計画されたルートに沿って無人車輌を制御できる。
 人間ドライバと同じように、そのシステムは、マップと道路の特徴との間のどんな不一致も検出する。これは、システムが、車輌のコースを修正するために、その位置、センサ、あるいはマッピングが不正確であるかどうかを判断するのに役立つ。
 最初にそのシステムを訓練するために、人間のオペレータが、自動化されたトヨタPriusを制御し、様々な道路構造や障害物を含む現地の郊外道路からデータを収集した。トヨタPriusは、いくつかのカメラと基本的なGPSナビゲーションシステムが装備されている。
 論文の筆頭著者、MIT院生、Alexander Aminiは、「われわれのシステムで、全ての道路を予め訓練する必要がなくなる。これまでに見たことのない道路を車がナビゲートするために、新しいマップをダウンロードできる」と説明している。
 「われわれの目的は、新しい環境での運転がしっかりとできるように、自律的ナビゲーションの実現である。例えば、ケンブリッジの通りのような都市部の設定で自律的車輌をトレーニングするなら、そのシステムは、これまでに見たことのない環境でも、森林のなかでも滑らかにドライブできなければならない」とCSAILディレクタ、Danieta Rusは付け加えている。
 論文でDaniela Rusと Alexander Aminiと共同していたのは、トヨタ研究所の研究者、Guy Rosman、MITの航空学および宇宙飛行学准教授、Sertac Karamanである。

ポイント・ツー・ポイントナビゲーション
 従来のナビゲーションシステムは、位置確認、マッピング、対象検出、動作プラニング、ステアリング制御などのタスクのためにカスタマイズされた多くのモジュールを通じてセンサからのデータを処理する。長年Rusのグループは、「エンド・ツー・エンド」ナビゲーションシステムを開発してきた。これは、いかなる特別なモジュールも必要とせずに、インプットされた感覚データと出力ステアリングコマンドを処理する。
 しかし、これまでは、これらのモデルは、真の目的地を考えないで、道路を安全に進むために厳密に設計されていた。新しい論文では、研究チームは、エンド・ツー・エンドシステムを進化させて、これまでに見たことのない環境で、ゴールから目的地まで運転させた。そのために、研究チームは、運転中のいかなる瞬間にもすべての可能な操舵コマンドに完全な確率分布を予測するようにシステムを訓練した。
 システムは、一般に画像認識に使われている重畳型ニューラルネットワーク(CNN)というマシンラーニングモデルを利用する。トレーニング中、システムは、人間ドライバーから操作の仕方を見て学習する。CNNは、ハンドルの回転を、カメラや入力されたマップにより、それが観察する道路曲率に関連付ける。最終的に、それは、様々な運転状況で最も可能性の高い操舵コマンドを学ぶ。例えば、直線道路、4方向あるいはT形状交差、フォーク、ロータリーなど。
 「最初のうちは、T交差点で、自動車が曲がる様々な方向は多い。モデルは、全てのそれらの方向を検討することから始めるが、人々がしていることについてのデータを多く学べば学ぶほど、ある人は左に、別の人は右に曲がるが、誰も直進しないことを理解する。直進は、可能性のある方向から排除される。また、T形状交差点では、左か右か、どちらかに行けばよいことをモデルは理解する」とRusは説明している。

マップは何というか
 試験では、研究チームは、ルートをランダムに選択したマップをシステムにインプットした。運転しているとき、システムはカメラから視覚的特徴を引き出し、それによってシステムは道路構造を予測することができる。例えば、遠くの一時停止標識、あるいは道路脇のライン分割を交差点が近いサインとして判断する。各瞬間に、システムは操舵コマンドの予測された確率分布を利用して、その経路をとるために最も可能性の高いものを選択する。
 重要な点は、研究者によると、システムは蓄積も処理も容易なマップを使用していることである。自律制御システムは、一般にLiDARスキャンを使って膨大で複雑なマップを形成する。これは、サンフランシスコ市だけの蓄積に、約4テラバイト(TB)のデータとなる。全ての新規の目的地のために、車輌は新しいマップを作らなければならない。これは膨大なデータ処理になる。しかし、研究チームのシステムで使用したマップは、わずか4ギガバイト(GB)データを使って全世界を捉える。
 自律運転中、、システムは継続的に、その視覚的データをそのマップデータと一致させ、いかなる不一致も指摘する。そうすることは、自律走行車が、路上のどこに位置するかの判断力向上に役立つ。また、矛盾する情報入力があっても、車輌が最も安全な経路にいることを保証する。例えば、もし車輌が曲がり角のない直線道路をクルージングしていても、GPSが右折しなければならないと指示すると、車輌は直進を維持するか、または停止するかを知ることになる。
 「実世界では、センサは必ず間違える。われわれは、こうした雑音のあるインプットを許容し、それでも路上でナビゲートし正しく自らの位置を見つけることができるシステムを構築することで、様々なセンサの多様な誤りに対して確実にロバストとなるようにしたい」とAminiは話している。