国内リポート 詳細

自律飛行物体/自律走行車を訓練する人工知能

June, 28, 2019--2019年5月、ドローン規制について法改正が行われ、小型無人機等飛行禁止法に定める飛行禁止対象施設に、防衛大臣が指定した防衛関係施設が追加された。
 これに対して、「報道の自由を守れ」などと主張する勢力が存在する。
 科学技術には、社会にとってプラス面とマイナス面が存在すると考えるのが自然である。「報道の自由」は大切だが、一般に「報道」は真実を伝えるものではない。エンタテーメントの一変形と考えるのが至当であろう。
 この点は、読者各位に考えてもらうとして、ここでは、人工知能(AI)が訓練するドローンや自律走行車について、最近のニュースを見ておこう。

1.AIを使ってドローンの離着陸を滑らかに
2.音もなく忍び寄る、わずか1グラムのハミングバード型飛行物体
3.無人走行車にヒトと同じ推理能力を付与

 これらは、いずれも、イノベーションであるが、考えようによっては、科学技術の恐ろしさを知る材料にもなる。特に、「ハミングバード型飛行物体」は、「秘密工作」に使えると開発者は考えているようだ。重量1グラムとは、一円玉程度であるが、そのような超小型ロボットが、玄関や窓から音もなく侵入し、人々を監視、偵察すると言う未来も想定できる。これは、探偵社の調査には強力な武器になるだろうが、兵器にもなり得る。
 様々な可能性は、読者諸氏に考えてもらうことにして、ここでは各研究機関のニュースから、AIが自律的飛行物体や自律走行車をどのようにトレーニングするか。それだけを見ておこう。

1. AIを使ってドローンを滑らかに離着陸させる
 マルチロータードローンを難なく着陸させることは難しい。下降中に、地面が近くなるに従い、各ローターから跳ね返るエアフローにより複雑な乱流が生ずるからである。この乱流は、十分に理解されていない、あるいはまた、補正が難しい。特に自律的ドローンでは難しい。それが、離陸と着陸が、ドローン飛行の2つの最もやりにくい部分となる場合が多い理由である。ドローンは、一般に、フラツキ、ゆっくりと着地点に近づき、最終的にパワーを切って、地上への残りの距離を落下する。
 カリフォルニア工科大学(Caltech)の自律システムと技術センタ(CAST)では、人工知能(AI)の専門家が、制御の専門家とチームを組んで、システムを開発している。システムは、ディープニューラルネットワーク(DNNs)を使って自律ドローンが、エネルギー消費を減らしながら、より安全に素早く着陸する方法の「学習」を支援する。研究チームが作製したシステムは、”Neural Lander”と名付けられており、学習に基づいたコントローラである。これは、ドローンの位置とスピードを追跡し、結果的に、可能な限り最も滑らかな着陸を達成するように、その着陸軌跡とロータースピードを変更する。
 「このプロジェクトは、より滑らかで安全なドローンの飛行に役立つ可能性がある。特に、予測できない突風が存在する場合である。また、ドローンは、より迅速に着陸するので、バッテリー消費も少なくなる」と工学・応用科学(EAS)部航空宇宙Bren教授、Soon-Jo Chungは説明している。同プロジェクトは、Chungと、Caltech人工知能(AI)の専門家、Anima Anadkumar、コンピューティング・数理科学Bren教授、准教授、Yisong Yueの協働によるものである。
 Neural Landerについての論文はIEEEロボット工学とオートメーションに関する国際会議(International Conference on Robotics and Automation)で発表された。
 ディープニューラルネットワークス(DNNs)は、脳のような生物系から発想を得た人工知能システム(AI system)。その名の”deep”部分は、データインプットが多層を通して攪拌されることを指している。各層は、ますます複雑になる細部を徐々に引き出すために様々な方法で入力情報を処理する。DNNsは、自動学習能力があり、これにより反復作業に最適化される。
 DNNの指揮下でドローンが確実に滑らかに飛行するように、研究チームは、スペクトルノーマリゼーション(正規化)として知られるている技術を利用した。これは、入力または条件の変化にしたがって、予測が激しく変動しないように、ニューラルネットの出力を滑らかにする。着陸の改善は、3D空間で理想的な軌跡からのズレを調べることで計測された。3タイプの試験が行われた。直線垂直着陸、下降アーク(円弧を描くような)着陸、テーブルの端など破断面をドローンがスレスレに進むような飛行、この場合、地面からの乱流の効果が鋭く変化する。
 その新システムは、垂直誤差を100%減らし、コントロールされた着陸を可能にしている。また、横方向のドリフトは、最大90%低減される。実験では、改善されていない従来のコントローラでよくあるように、地面上方10~15㎝で立ち往生するのではなく、新システムは、実際に着陸している。さらに、スレスレ飛行テストでは、Neural Landerは、ドローンがテーブルスレスレ飛行から、テーブルの端を超えてフリースペース飛行に移るとき、非常に滑らかな移行飛行だった。
 「誤差が少ないので、Neural Landerは、よりスピーディで滑らかな着陸、地表面上方を滑らかに滑空できる」とYisong Yue准教授はコメントしている。新システムは、CASTの3階建アエロドーム(飛行場)でテストした。アエロドームは、ほぼ無限の屋外風況をシミュレートできる。2018年に開設されたCASTは、10000平方フットファシリティである。ここで、EAS、JPL、Caltechの地質学、惑星科学学部が一体となって、次世代自律システムの実現に取り組んでいる。同時に、ドローン研究、自律探査、生物からヒントを得たシステムを前進させることにも取り組んでいる。
 「この学際的な取り組みは、マシンラーニングとコントロールシステムの専門家を集めている。われわれは、2つの領域間のリッチな関係の探求をどうにか始めたばかりである」とAnima Anandkumarは話している。
 明確な商用アプリケーションの他に、研究チームは、その新システムの特許の申請も行った。新システムは、到達が困難な箇所(交通混雑など)に着陸できる自律医療輸送機を含め、現在CASTで開発が進行しているプロジェクトに重要であることが証明されている。「けが人を運ぶ際、迅速かつ滑らかに着陸できることの重要性は、どんなに強調してもしすぎることはない」とCASTディレクタ、Morteza Gharibはコメントしている。
 なお、研究者のSoon-Jo Chungは、昨年、ドローンを使って空港の空域からガンなどの鳥の群れを追い払う研究を発表している。このプロジェクトは、2009 年”Miracle on the Hudson” に触発されたものである。この事件では、US Airways Flight 1549 が、離陸直後ガンの群に衝突し、パイロットは、マンハッタンから離れたハドソン川に緊急着陸を強いられた。同機は、熟練パイロットによって救われたが、常にそうなるとは限らない。Soon-Jo Chung は、同氏の研究分野、オートノミーとロボット工学を利用して、鳥から空域を守る方法の探究を始めた、と説明している。

図1 マルチロータ・ドローンにとって、地上付近で正確な軌跡制御は難しい。マルチロータの気流と環境との相互作用によって生ずる複雑な地面効果のためである。従来の制御法は、こうした効果を正しく説明できず、滑らかな着地ができないことがある。論文では、新しいディープラーニングベースのロバストな非線形コントローラ(Neural Lander)を提案している。これは、着陸中のクワッドロータ制御性能を改善する。研究チームのアプローチは、正常力学モデルと高次相互作用を学習するDeep Neural Network (DNN)を統合している。チームは、スペクトル正規化の新たな適用を利用して、DNNにリプシッツ(Lipschitz)挙動を抑制させた。このリプシッツ特性を活用して、学習済みモデルを使いながら非線形フィードバック線形コントローラを設計し、外乱を除去することでシステム安定化を証明している。知る限りでは、これは初のDNNベース非線形フィードハックコントローラであり、自由裁量で大規模ニューラルネットワークを使うことができるので安定性が保証されている。実験結果は、提案したコントローラは、1Dと3D着陸の両方で、ベースラインの線形比例微分(PD)コントローラを上回っていることを実証している。特に、PDコントローラと比較して、1D着陸で、Neural Landerは、Z方向の誤りを、0.13mからゼロに低減、平均XとYドリフトをそれぞれ90%、34%緩和している。一方、3D着陸では、Neural Landerは、Z方向の誤差を0.12mからゼロに低減できる。チームは、DNNが、トレーニング域外で新たなテスト入力に十分一般化できることを実験的に示している。

図1 マルチロータ・ドローンにとって、地上付近で正確な軌跡制御は難しい。マルチロータの気流と環境との相互作用によって生ずる複雑な地面効果のためである。従来の制御法は、こうした効果を正しく説明できず、滑らかな着地ができないことがある。論文では、新しいディープラーニングベースのロバストな非線形コントローラ(Neural Lander)を提案している。これは、着陸中のクワッドロータ制御性能を改善する。研究チームのアプローチは、正常力学モデルと高次相互作用を学習するDeep Neural Network (DNN)を統合している。チームは、スペクトル正規化の新たな適用を利用して、DNNにリプシッツ(Lipschitz)挙動を抑制させた。このリプシッツ特性を活用して、学習済みモデルを使いながら非線形フィードバック線形コントローラを設計し、外乱を除去することでシステム安定化を証明している。知る限りでは、これは初のDNNベース非線形フィードハックコントローラであり、自由裁量で大規模ニューラルネットワークを使うことができるので安定性が保証されている。実験結果は、提案したコントローラは、1Dと3D着陸の両方で、ベースラインの線形比例微分(PD)コントローラを上回っていることを実証している。特に、PDコントローラと比較して、1D着陸で、Neural Landerは、Z方向の誤りを、0.13mからゼロに低減、平均XとYドリフトをそれぞれ90%、34%緩和している。一方、3D着陸では、Neural Landerは、Z方向の誤差を0.12mからゼロに低減できる。チームは、DNNが、トレーニング域外で新たなテスト入力に十分一般化できることを実験的に示している。

2. ハミングバード型ロボットは、AIを使いドローンが行けないところへ飛行
 ドローンがハミングバードと組み合わされると、倒壊したビルや他の雑然とした空き地を通って、身動きできな被害者を見つけるための操作が容易になる。
 パテュー大学(Purdue University)の研究チームは、ハミングバードのように振る舞う飛行ロボットを設計し、ハミングバードが日常的に自然に使う様々な技術に基づいたマシンラーニングアルゴリズムによりトレーニングした。
 すなわちシミュレーションから学んだ後には、そのロボットは、ハミングバードのように自力で飛行する方法を「知っている」ことになる。例えば、いつ脱出策をとるべきか見定める。
 人工知能を、柔軟に羽ばたく翼と組み合わせることで、ロボットは、新しい技術を独習できるようになる。例えば、そのロボットは、まだ見ることはできないが、表面に触れて感知する。触れる毎に電流が変わるので、研究チームは、ロボットは追跡できると気づいた。
 「そのロボットは、基本的に、周辺を見ることなくマップを形成できる。この点は、ロボットが暗闇で被災者を捜しているような状況では,役立つ。また、小さなセンサを追加すると、そのロボットは見ることができるようになる」と機械工学准教授、Xinyan Dengは説明している。
 研究成果は、2019 IEEE International Conference on Robotics and Automationで発表された。
 標準的な航空力学が正常に機能する方法があるので、ドローンは無限に小さくすることはできない。つまり、その重量を支えるだけの揚力を生み出すことができない。
 しかしハミングバードは、標準的な航空力学を利用しない、しかもその翼は弾力がある。「その物理学は全く異なる。その航空力学は、本質的に一様でない。高迎角であり高揚力である。このため、もっと小さくて飛行できる動物が存在する。また、われわれは、羽ばたく翼のロボットも小さくすることができる」とDengは説明している。
 研究チームは、ロボットが、大きな飛行機が行けないところへ飛んでいけるように、数年かけてハミングバードの飛行を解読しようとしてきた。 2011年、米国国防省、DARPAに依頼されたAeroVironment社が,ロボット・ハミングバードを構築した。それは、実際のものよりも重く、それほど速くなかった。ヘリコプタのような飛行制御性と限られた操縦性を備えていた。背後ではヒトが常に遠隔コントロールしなければならなかった。
 Dengのグループと協力者は、モンタナ州で,数年の夏にかけてハミングバードそのものを研究した。研究グループは、急速な180°回旋などハミングバードの重要な操作を記録し、それらをコンピュータアルゴリズムに変換した。シミュレーションにつなげたときに,ロボットがそれから学ぶことができるようにするためである。
 昆虫やハミングバードの物理学についてさらに研究することでパデューのチームは、ハミングバードよりも小さなロボットを作製することができた。昆虫程度のサイズでさえ、飛行法に妥協はない。サイスが小さくなればなるほど、翼の羽ばたき周波数が高くなり、ますます効率的に飛行できるようになる、とDengは話している。
 そのロボットは、3Dプリントした身体、カーボンファイバ製の翼、レーザカットした膜を持つ。研究チームは、重量が12gのハミングバードを作製した。これは堂々とした成鳥のハミングバードの平均的な重さである。もう1つ、1gの昆虫サイズのロボットを作製した。ハミングバードロボットは、それ自身の体重以上、最大27gまでを持ち上げることができる。
 もっと大きな揚力のロボットの設計により研究チームは、最終的にバッテリやセンシング技術、カメラやGPSなどを追加する余地を獲得することになる。現在、そのロボットは、飛行中、エネルギー源に接続されているが、それはそんなに長くはない、研究チームは話している。
 そのロボットは、実際のハミングバードと全く同じように静かに飛行できるので、秘密工作には最適である。また、乱流の中でも安定している。この点は、オイルタンクで翼を動的にスケーリングするテストすで実証した。
 そのロボットは、2つのモーターしか必要とせず、各翼を他とは独立に制御できる。これは、自然状態で飛ぶ動物が非常に機敏な飛行をする方法を示すものである。
 「実際のハミングバードには、羽ばたきによる推進力や操舵力のためにたくさんの筋肉群があるが、ロボットは可能な限り軽量でなければならない。最小重量で最大性能を出力するためである」とDengはコメントしている。

図2 パデュー大学研究チームは、ロボットハミングバードを作製している。これは、実際のハミングバードの飛行法をコンピュータシミュレーションから学ぶ(Purdue University photo/Jared Pike)。
 なお、このロボットハミングバードはyoutbeで見ることができる(https://www.youtube.com/watch?v=jhl892dHqfA&feature=youtu.be.)。

図2 パデュー大学研究チームは、ロボットハミングバードを作製している。これは、実際のハミングバードの飛行法をコンピュータシミュレーションから学ぶ(Purdue University photo/Jared Pike)。
 なお、このロボットハミングバードはyoutbeで見ることができる(https://www.youtube.com/watch?v=jhl892dHqfA&feature=youtu.be.)。

3. MIT、無人走行車に人のような推理力を付与
 より人間的な推理力を自律走行車に持たせることを目的にMIT研究チームは、簡単な地図と視覚データだけを使って無人車輌が新しい、複雑な環境のルートをナビゲートできるようなシステムを開発した。
 人間のドライバーは、観察と簡単なツールを使い、以前に運転したことのない道路をナビゲートすることは、ことのほか得意である。われわれは、周囲に見える物とGPS機器で見えるもの簡単に一致させ、自分がどこにいて、どこへ行く必要があるかを判断する。しかし、無人車輌は、この基本的な推理力で苦労している。あらゆる見慣れないエリアでは、車輌は、まず全ての新しい道路を地図に入れ、分析しなければならない。これは非常に時間がかかる。また、システムは、通常3Dスキャンで生成された複雑なマップに依存している。これらを、即座に生成し、処理するには、膨大な計算量が必要になる。
 ロボット工学とオートメーション国際会議(International Conference on Robotics and Automation)で発表された論文で、MITの研究チームは、自律制御システムを紹介した。このシステムは、ビデオカメラが供給するデータと簡単なGPSのようなマップだけを使って、狭いエリアの道路をナビゲートする人間ドライバの操舵パタンを「学ぶ」。すると、その訓練されたシステムは、人間ドライバを真似ることで、全く新しいエリアの計画されたルートに沿って無人車輌を制御できる。
 人間ドライバと同じように、そのシステムは、マップと道路の特徴との間のあらゆる不一致を検出する。これは、システムが、車輌のコースを修正するために、その位置、センサ、あるいはマッピングが不正確であるかどうかを判断するのに役立つ。
 最初にそのシステムを訓練するために、人間のオペレータが、自動化されたトヨタPriusを制御し、様々な道路構造や障害物を含む現地の郊外道路からデータを収集した。トヨタPriusには、いくつかのカメラと基本的なGPSナビゲーションシステムが装備されている。
 論文の筆頭著者、MIT院生、Alexander Aminiは、「われわれのシステムで、全ての道路を予め訓練する必要がなくなる。これまでに見たことのない道路を車がナビゲートするために、新しいマップをダウンロードできる」と説明している。
 「われわれの目的は、新しい環境での運転がしっかりとできるように、自律的ナビゲーションの実現である。例えば、ケンブリッジの通りのような都市部の設定で自律的車輌をトレーニングするなら、そのシステムは、これまでに見たことのない環境でも、森林のなかでも滑らかにドライブできなければならない」とCSAIL (MITコンピュータ科学・人工知能研究所)ディレクタ、Danieta Rusは付け加えている。
 論文でDaniela Rusと Alexander Aminiと協働していたのは、トヨタ研究所の研究者、Guy Rosman、MITの航空学および宇宙飛行学准教授、Sertac Karamanである。

【ポイント・ツー・ポイントナビゲーション】
 従来のナビゲーションシステムは、位置確認、マッピング、対象検出、動作プラニング、ステアリング制御などのタスクのためにカスタマイズされた多くのモジュールを通じてセンサからのデータを処理する。長年Rusのグループは、「エンド・ツー・エンド」ナビゲーションシステムを開発してきた。これは、いかなる特別なモジュールも必要とせずに、インプットされた感覚データと出力ステアリングコマンドを処理する。
 しかし、これまでは、これらのモデルは、真の目的地を考えないで、道路を安全に進むために厳密に設計されていた。新しい論文では、研究チームは、エンド・ツー・エンドシステムを進化させて、これまでに見たことのない環境で、目標から到着地まで運転させた。そのために、研究チームは、運転中のいかなる特定の瞬間にもすべての可能な操舵コマンドに完全な確率分布を予測するようにシステムを訓練した。
 システムは、一般に画像認識に使われている折り畳みニューラルネットワーク(CNN)というマシンラーニングモデルを利用する。トレーニング中、システムは、人間ドライバーから操作の仕方を見て学習する。CNNは、ハンドルの回転を、カメラや入力されたマップにより、それが観察する道路曲率に関連付ける。最終的に、それは、様々な運転状況で最も可能性の高い操舵コマンドを学ぶ。例えば、直線道路、4方向あるいはT形状交差、フォーク、ロータリーなど。
 「最初のうちは、T交差点では、自動車が曲がる様々な方向は多い。モデルは、全てのそれらの方向を検討することから始めるが、人々がしていることについてのデータを多く学べば学ぶほど、ある人は左に,別の人は右に曲がるが、誰も直進しないことを理解する。直進は、可能性のある方向から除外される。また、T形状交差点では、左か右か、どちらかに行けばよいことをモデルは理解する」とRusは説明している。

【マップは何というか】
 テストでは、研究チームは、ルートをランダムに選択したマップをシステムにインプットした。運転しているとき、システムはカメラから視覚的特徴を引き出し、それによってシステムは道路構造を予測することができる。例えば、遠くの一時停止標識、あるいは道路脇のライン分割を交差点が近いサインとして判断する。各瞬間に、システムは操舵コマンドの予測された確率分布を利用して、その経路をとるために最も可能性の高いものを選択する。
 重要な点は、研究者によると、システムは蓄積も処理も容易なマップを使用していることである。自律制御システムは、一般にLiDARスキャンを使って膨大で複雑なマップを形成する。これは、サンフランシスコ市だけの蓄積に、約4テラバイト(TB)のデータとなる。全ての新規の目的地のために、車輌は新しいマップを作らなければならない。これは膨大なデータ処理になる。しかし、研究チームのシステムで使用したマップは、わずか4ギガバイト(GB)データを使って全世界を捉える。
 自動運転中、システムは継続的に、その視覚的データをそのマップデータと一致させ、いかなる不一致も指摘する。そうすることは、自律走行車が、路上のどこに位置するかの判断力向上に役立つ。また、矛盾する情報入力があっても、車輌が最も安全な経路にいることを保証する。例えば、もし車輌が右左折のない直線道路をクルージングしていても、GPSが右折しなければならないと指示すると、車輌は直進を維持するか、または停止するかを見分ける。
 「実世界では、センサは必ず間違える。われわれは、こうした雑音のあるインプットを許容し、それでも路上でナビゲートし正しく自らの位置を見つけることができるシステムを構築することで、様々なセンサの多様な誤りに対して確実にロバストとなるようにしたい」とAminiは話している。