SRIが開発した、GPSが使えない環境で作動するロボットナビゲーションシステムとは
台所の床掃除から火星の表面探査まで、自律型ロボットの多くはナビゲーションにセンサーやハードウェア、ソフトウェアを組合せている
「GPS」のない世界はもはや考えられません。衛星を利用した全地球測位システム(GPS: Global Positioning System)は、人々がA地点からB地点へできるだけ早く、かつ効率的に移動する際に役立っています。科学者たちはより性能の高いGPSセンサーを使って、地震から雪解け水まであらゆる調査を行っています。また、これからの自律走行車(自動運転の車など)の革新を支える重要な技術の1つでもあります。
しかしながら、GPSは万能ではありません。肝心なところで携帯電話やGPSが使えなくなり、一瞬パニックになったことがある人も多いのではないでしょうか。GPSがない状態で、暗闇や地下などの慣れない場所で、移動しながらルートマップを作成することを想像してみてください。
これは、GPSが使えない未知の場所や視界が全くない、もしくは視界の非常に悪い場所での調査、救助、その他の任務を担うロボット車両や自律飛行システムが抱える課題であり、米陸軍はその解決をSRIインターナショナルに依頼しました。
「私たちの目標は、環境のナビゲーションやマッピングを行うだけでなく、その環境の中に何があるかを把握することです」と、SRIのCenter for Vision TechnologiesのVision and Robotics Laboratoryに所属するHan-Pang Chiu (Senior Technical Manager)は述べています。Chiuは1年に及ぶ「視界が悪い環境下におけるGPS使用不可時のセマンティック情報ナビゲーション」(SIGNAV:Semantically Informed GPS-denied NAVigation in Visually Degraded Environments)プロジェクトの開発を主任研究員として率いました。
「SLAM」はいつも大成果を挙げるとは限らない
自律型ロボットは、台所の床掃除や火星の表面探査など用途が違っていても、センサーやハードウェア、ソフトウェアを組み合わせてナビゲーションを行います。この方法は、「位置測定とマッピングの同時進行(SLAM:Simultaneous Localization And Mapping)」として知られるようになりました。自律型ロボットが自らの位置を測定し、その環境内にマッピングするという方法です。
方法は様々ですが、このようなロボットプラットフォームのハードウェアには、GPSや可視光線と赤外線の両方の波長で作動するカメラなど、馴染みのある技術をはじめとする様々なセンサーが搭載されています。加速度計、ジャイロセンサー (Gyroscopes) や磁力計などスマートフォンやウェアラブル端末に搭載されているセンサーの多くは自律型ロボットにも搭載されており、歩数を数えたり画面上の画像の向きを変えたりすることができます。さらに高度なセンサーとしては、深度を計算するために2次元または3次元で距離を高精度で測定するLiDARというレーザーデバイスがあります。
そしてもちろん、オンボード型のコンピューター用プロセッサーもあります。SRIのSLAMナビゲーションシステムは、Nvidia社の小型ユニットJetson AGX Xaviorに搭載されていて、これには人工知能アルゴリズムを使用するコンピューターの金字塔的なGPUs (Graphics Processing Units) も採用されています。
ソフトウェア側では、高度なアルゴリズムがセンサーからの各種データを融合して整合性のある画像を作成し、ロボットの操縦や環境マッピングができるようにします。さらに、ディープラーニング(深層学習)を用いたAI技術は、ロボットが物体を識別できるようにし、さまざまな場面でその物体の位置を特定できるよう訓練することでこの世界をさらに広げる「セマンティックナビゲーション」と呼ばれるプロセスです。この種のコンピュータービジョンシステムは、ピクセル単位で何を表しているか、例えばドアや窓の一部を示しているなど、意味に基づいて画像をセグメント化できるのです。
しかし、陸軍が想定している「GPSが使えない」暗闇の場面では、Chiuによると、ディープラーニングを用いたセマンティックナビゲーションシステムのSLAMは、画質が非常に悪いためうまく作動しません。しかし幸いなことに、この課題の解決に挑んだSRIのチームが暗闇の中に埋もれてしまうことはありませんでした。
闇の中のSLAM
SRIは、かつて米国国防高等研究計画局(DARPA)のために手掛けたプログラムで、すでに新しいSLAMナビゲーションシステムの開発に成功していました。DARPAの全地点ポジショニングナビゲーション(ASPN:All Source Positioning and Navigation)はその一例であり、SRIの科学者が30種以上ものセンサーがある多数のプラットフォームに対応する、プラグアンドプレイ型のリアルタイムポジショニング&ナビゲーションシステムを開発しました。
SRIは引き続き、DARPAのスクワッド-X(Squad-X)プログラムで、これを複数プラットフォームの無線測定データが共有できるナビゲーションシステムに拡張しました。この発明はSIGNAVの重要な部分を担っており、複数の自律型ロボット間の距離をリアルタイムに測定することでSLAMの性能を向上させています。SRIの科学者は、無線測定の位置が不明、もしくは推定できないときでもこのような距離測定を利用してナビゲーションの精度を高める新しい方法を開発しました。Chiuによると、この方法によって複数のロボット間で、より柔軟かつ応用性の高いナビゲーションが可能になるとのことです。研究チームはまた、ロボット間で特定のセマンティックデータを共有し、より正確な地図の作成・統合にも取り組んでいます。
しかし、12カ月に及ぶこのプロジェクトの最も飛躍的な発明は、LiDARデータを2次元画像に融合し、Chiuが「2.5Dセマンティック・セグメンテーション(2.5次元のセマンティック区分け)」と呼ぶものを作りあげたことでした。レーザーセンサーで3次元の点群を生成して正確な深度測定を行い、それをその場で2次元のセマンティック・セグメンテーション画像に投影するのです。このように2次元と3次元の技術を組み合わせることで、ハイブリッドな2.5Dセマンティック・セグメンテーションがリアルタイムに生成されます。
「深度情報は明るさに影響されないため、暗い場所でもLiDARで深度測定し、それを使ってセマンティック・セグメンテーションの精度を上げることができます。これがアイデアの中心です。」とChiuは述べています。
また、SRIのナビゲーションシステムはセマンティック情報を用いたループ検知法を採用しています。つまり、幾何学的な計算とセマンティックな場面情報から以前訪れたことのある場所を検出することで、ロボットの位置精度を向上させているのです。
GPSが使えない環境でこの機能を実証したところ、ある車両が75分で33キロメートル近く走行した時のナビゲーションシステムの位置推定値は、6m以内の誤差に収まりました。新型コロナウイルス感染症のパンデミックに伴う影響を受けたことから、直近のSIGNAVデモはSRIの施設で実施され、Chiuは自身の携帯電話で陸軍の顧客にストリーミングで動画を流しました。
「陸軍はライブデモの結果を非常に喜んでくれました。セマンティック・セグメンテーションと従来のSLAMを組み合わせてGPSが使えない暗闇でも対応できるようにしたのは、我々が初めてなんですよ」とChiuは誇らしげに語りました。