June, 25, 2025, Cambridge--MITが開発したチップは、光速でディープラーニング(DL)を実行することにより、エッジデバイスにリアルタイムデータ分析の新しい機能を提供する可能性がある。
テレワークやクラウドコンピューティングなどのタスクに必要な帯域幅が増加するにつれ、すべてのユーザが共有できる限られた量の無線スペクトルを管理することは非常に困難になる。
エンジニアは、人工知能(AI)を使用して利用可能なワイヤレススペクトルを動的に管理し、遅延の低減とパフォーマンスの向上を目指している。しかし、無線信号を分類して処理するためのほとんどのAI手法は、電力を大量に消費し、リアルタイムで動作させることはできない。
今回、MITの研究者は、無線信号処理用に特別に設計された新しいAIハードウェアアクセラレータを開発した。その光プロセッサは、光速で機械学習計算を実行し、無線信号をナノ秒単位で分類する。
フォトニックチップは、最高のデジタル代替品よりも約100倍高速でありながら、信号分類の精度は約95%に収束する。また、新しいハードウェアアクセラレータはスケーラブルで柔軟性が高いため、様々なハイパフォーマンスコンピューティング(HPC)アプリケーションに使用できる。同時に、デジタルAIハードウェアアクセラレータよりも小さく、軽く、安価で、エネルギー効率が高い。
このデバイスは、変化するワイヤレス環境にワイヤレス変調フォーマットを適応させることでデータレートを最適化するコグニティブ無線など、将来の6Gワイヤレスアプリケーションで特に役立つ可能性がある。
この新しいハードウェアアクセラレータは、エッジデバイスがディープラーニング計算をリアルタイムで実行できるようにすることで、信号処理以外の多くのアプリケーションで劇的な高速化を実現できる可能性がある。例えば、自動運転車が環境の変化に対して一瞬で反応したり、スマートペースメーカーが患者の心臓の健康状態を継続的に監視したりできるようになるかも知れない。
「無線信号を分析できるエッジデバイスによって可能になるアプリケーションは数多くある。われわれが論文で提示したことは、リアルタイムで信頼性の高いAI推論の多くの可能性を開く可能性がある。この研究は、非常にインパクトの強い何かの始まりである」と、MIT電気工学およびコンピュータサイエンス学部の教授、量子フォトニクスおよび人工知能グループおよび電子工学研究所(RLE)の主任研究員で、論文の上級著者であるDirk Englundはコメントしている。
同教授は、筆頭著者Ronald Davis IIIPh.D’24による論文に参加している。Zaijun Chenは、元MITポスドクで、現在は南カリフォルニア大学の助教授。RLEの客員研究員であり、NTTリサーチのシニアサイエンティストであるRyan Hamerly。この研究は、Science Advancesに掲載された。
光速処理
無線信号処理用の最先端のデジタルAIアクセラレータは、信号を画像に変換し、ディープラーニングモデルに通して分類する。このアプローチは高精度だが、ディープニューラルネットワークの計算集約型の性質により、時間的制約のある多くのアプリケーションには適していない。
光学システムは、デジタルコンピューティングよりもエネルギー消費量が少ない光を使用してデータをエンコードし処理することにより、ディープニューラルネットワークを高速化できる。しかし、研究者は、汎用の光ニューラルネットワークを信号処理に使用する際に、光デバイスの拡張性を確保しながら、その性能を最大限に引き出すのに苦労してきた。
信号処理に特化した光ニューラルネットワークアーキテクチャを開発することで、研究チームは、これを乗算型アナログ周波数変換光ニューラルネットワーク(MAFT-ONN)と呼び、この問題に正面から取り組んだ。
MAFT-ONNは、無線信号がデジタル化される前に、すべての信号データをエンコードし、周波数領域と呼ばれる領域内ですべての機械学習操作を実行することで、スケーラビリティの問題に対処する。
研究チームは、すべての線形および非線形操作をインラインで実行するように光ニューラルネットワークを設計した。ディープラーニングには、どちらのタイプの操作も必要になる。
この革新的な設計により、個々の計算ユニット、つまり「ニューロン」ごとに1つのデバイスを必要とする他の方法とは対照的に、光ニューラルネットワーク全体でレイヤーごとに1つのMAFT-ONNデバイスしか必要としない。
「10,000個のニューロンを1つのデバイスに収め、必要な乗算を1回のショットで計算できる」(Davis)。
研究チームは、効率を劇的に向上させる光電増倍と呼ばれる技術を使用してこれを達成した。また、追加のレイヤーで簡単にスケールアップできる光ニューラルネットワークを、余分なオーバーヘッドを必要とせずに作成することもできる。
ナノ秒での結果
MAFT-ONNは、無線信号を入力として受け取り、信号データを処理し、エッジデバイスが実行する後の操作のために情報を渡す。たとえば、MAFT-ONNは、信号の変調を分類することにより、デバイスが信号のタイプを自動的に推測して、伝送するデータを抽出できるようにする。
MAFT-ONNの設計時に研究者が直面した最大の課題の1つは、機械学習の計算を光ハードウェアにどのようにマッピングするかを決定することだった。
「通常の機械学習フレームワークを既製品から取り出して使用することはできなかった。ハードウェアに合わせてカスタマイズし、物理特性をどのように活用して、われわれが望む計算を実行するかを考えなければならなかった」(Davis)。
シミュレーションで信号分類のアーキテクチャをテストすると、光ニューラルネットワークは1回のショットで85%の精度を達成し、複数の測定を使用して99%以上の精度に迅速に収束することができる。MAFT-ONNは、全プロセスを実行するのに約120ナノ秒(ns)しか必要としない。
「測定時間が長くなるほど、精度は高くなる。MAFT-ONNはナノ秒単位で推論を計算するため、精度を高めるために速度をあまり低下させない」(Davis)。
最先端のデジタル無線周波数デバイスはマイクロ秒で機械学習推論を実行できるが、光学機器はナノ秒またはピコ秒で推論を実行できる。
今後、研究チームは、より多くの計算を実行し、MAFT-ONNをスケールアップできるように、多重化スキームと呼ばれるものを採用したいと考えている。また、Transformer モデルや LLM を実行できる、より複雑なディープラーニング アーキテクチャに作業を拡張したいとも考えている。