August, 23, 2022, Los Angeles--UCLAのバイオエンジニアと以前のポスドク研究者が、新しいクラスのバイオニック3Dカメラシステムを開発した。これは、ハエの多視点視覚やコウモリの自然ソナーセンシングを真似ることができ、プラインドスポットを通してもスキャンできる並外れた深度範囲を備えた多次元イメージングの実現である。
コンピュータ画像処理機能を持つそのカメラは、コーナーに隠れた、あるいは他の物体の陰にある物体のサイズや形状を解読できる。その技術は、自動運転車、医療イメージングツールに組みこめ、現在最先端と考えられるものを遙かに上回るセンシング機能を提供する。この研究成果は、Nature Communicationsに発表された。
暗闇で、コウモリは反響定位、つまりソナーを使うことで周囲のモノを鮮やかに可視化できる。その高周波のキーという鳴き声は、周辺物から跳ね返り、耳で拾い上げられる。エコーが、その夜行性動物に届くまでにかかる時間の小さな差とその音の強度によってモノがどこにあるか、どの方向か、また潜在的な獲物をコウモリはリアルタイムで検知できる。
多くの昆虫は幾何学的形状の複眼を持つ。ここでは、「眼」は数100、あるいは数万の個々の視覚単位で構成されているので、同じモノを多数の視線で見ることができるようになっている。例えば、ハエの球根型複眼は、その眼が固定焦点距離でも、ほぼ360°の視覚で見ることができるが、高い位置のハエ叩きなど、離れたモノは見ることができない。
ハエとコウモリに見られるこれら2つの自然現象からヒントを得てUCLAチームは、これらの利点を活用し、自然の短所に対処する先進機能を備えたハイパフォーマンス3Dカメラシステムの設計に取りかかった。
UCLA Samueli工学部、准教授、Liang Gao、研究リーダーは、「そのアイデアそのものを試している間、広範な距離と閉鎖周囲を見ることが主要な問題であった。それに対処するためにわれわれは新しいコンピュータイメージングフレームワークを開発した。これにより初めて、簡単なオプティクスと小さなセンサアレイで、広くて深い全景を捉えることができる」と説明している。
Compact Light-field Photography(CLIP)を利用する閉鎖を通した3Dイメージング
いわゆるCLIP(Compact Light-field Photography)、フレームワークによりそのカメラシステムは、拡張深度範囲と周囲のモノにより「見る」ことができる。実験では、チームは、そのシステムが、従来の3Dカメラでは見つからない隠されたモノを「見る」ことができることを実証した。
研究チームは、一種のLiDAR(Light Detection And Ranging)も利用する、LiDARではレーザが周囲をスキャンしてエリアの3Dマップを構築する。
CLIPなしの従来のLiDARでは、シーンの高解像度スナップショットを撮るが、隠されたモノは見逃す、われわれの眼と全く同じである。
CLIP搭載の7台のカメラを使うと、アレイは、低解像度のシーンを捉え、個々のカメラが見るモノを処理し、高解像度3Dイメージングで統合されたシーンを再構成する。研究チームは、そのカメラシステムが、全て異なる距離に設定された複数の対象の複雑な3Dシーンをイメージングできる。
「片目を覆ってラップトップコンピュータを見ると、その背後にわずかに隠されたコーヒーマグがある、ラップトップが視界を阻むのでそれを見ることができないかもしれない。しかし、両眼を使うと、その物体をよく見ることができる。それは、ここで起きていることであるが、今度は昆虫の複眼でマグを見ていることを考える。すると、マグのマルチビューが可能になる」とGaoは説明している。同氏はCalifornia NanoSystems Instituteのメンバーでもある。。
Gaoによると、CLIPは、同じように隠されたものをカメラアレイが理解するのに役立つ。LiDARと組み合わせると、システムはコウモリの反響定位を達成し、光がカメラに戻ってくるまでの時間により隠されたモノを検知することができる。
(詳細は、https://www.eurekalert.org/)