Science/Research 詳細

人のように「考える」人工知能を開発

December, 2, 2021, Glasgow--Patterns誌に発表されたグラスゴー大学の心理学と精神科学学部の研究は、3Dモデリングを利用してマシンラーニングの一部、ディープニューラルネットワーク(DNN)の情報処理を分析し、その情報処理がヒトの情報処理とどのように一致するかを可視化する。

この新しい研究が、ヒトのように情報を処理し、われわれが理解し予測できる誤りをする、より信頼できるAI技術の実現に道を開くと期待されている。

AI開発がまだ直面している課題の一つは、マシンシンキングのプロセスの理解向上方法、またそれがヒトの情報処理方法と一致するかどうかの理解向上である。狙いは、正確さの保証である、DNNsは、人の決定行動の現在ベストのモデルと紹介されることがよくある。また、あるタスクでは、ヒトの能力を達成あるいはそれを超えるとされている。しかし、見かけによらず単純な視覚的弁別課題でさえ、ヒトと比較して、AIモデルの明確な矛盾、誤りを明らかにすることができる。

現在、DNN技術は、顔認証などのアプリケーションで使われている。これらの領域では、それは非常に成功しているが、研究者は、これらのネットワークの情報処理方法をまだ完全に理解しておらず、したがって、いつ誤りが起こるかも分からない。

この新しい研究では、研究チームは、DNNに与えられた視覚的刺激をモデル化することでこの問題に対処した。ヒトとAIモデル間の類似の情報処理により、認識の類似性を実証できるように、多様な方法でそれを変換することで、この問題に対処した。
 
グラスゴー大学神経科学と技術研究所長、Philippe Schynsは、「AIモデルがヒトのように振る舞い、例えば、顔を見るときはいつでも、ヒトがするようにヒトの顔を認識するモデルを構築する際、そのAIモデルが、他人が顔を認識するためにするように、顔からの同じ情報を利用していることを確認しなければならない。AIがこれをしないなら、システムがヒトがするように機能していると錯覚するが、すると、何らかの新しい状況あるいはテストされていない状況でそれが間違えることに気づく」と話している。

研究チームは、一連の変更可能な3Dの顔を利用し、これらのランダムに生成した顔が4つの馴染みのある本人との類似性を評価するようにヒトに依頼した。次に、チームはこの情報を用いて、DNNsが同じ理由で同じ評価をするかどうかをテストした。ヒトとAIが同じ決定をするかどうかだけでなく、同じ情報に基づいているかどうかもテストした。重要な点は、そのアプローチにより研究者がこれらの結果をヒトやネットワークの行動を起こさせる3D顔として視覚化できることである。例えば、正しく分類された2000の身元を強力な風刺画の顔で行動を起こさせるネットワークは、それがヒトとは全く違う顔情報処理で顔を同定していることを示している。

研究チームは、この研究が、ヒトのように行動し、予測できな間違いがもっと少ない、より信頼度の高いAI技術への道を開くと期待している。
(詳細は、https://www.gla.ac.uk)