November, 15, 2023, Cambridge--ヒューマンエラーと不確実性は、特に人間が機械学習モデルにフィードバックを提供するシステムでは、多くの人工知能システムが把握できない概念である。これらのシステムの多くは、人間が常に確実で正しいと仮定するようにプログラムされているが、実際の意思決定には時折の間違いや不確実性が含まれる。
ケンブリッジ大学の研究者は、Alan Turing Institute, Princeton, and Google DeepMindとともに、人間の行動と機械学習(ML)の間のギャップを埋めようとしており、人間と機械が連携するAIアプリケーションで不確実性をより完全に説明できるようにしている。これは、特に医療診断など安全性が重要な場合に、これらのアプリケーションのリスクを軽減し、信頼性と信頼性を向上させるのに役立つ。
チームは、人間がフィードバックを提供し、特定の画像にラベル付けする際の不確実性のレベルを示すことができるように、よく知られている画像分類データセットを適応させた。研究チームは、不確実なラベルを使用したトレーニングにより、不確実なフィードバックを処理する際のこれらのシステムのパフォーマンス向上が可能なことを発見したが、人間もこれらのハイブリッドシステムの全体的なパフォーマンスを低下させる。チームの結果は、モントリオールで開催された人工知能、倫理、社会に関するAAAI / ACM会議(AIES 2023)で報告された。
「ヒューマンインザループ」‘Human-in-the-loop’機械学習システム(人間のフィードバックを可能にするAIシステムの一種)は、自動化されたモデルだけでは意思決定を信頼できない環境でリスクを軽減する有望な方法として組み立てられることがよくある。しかし、人間が当てにならない場合はどうなるか。
「不確実性は、人間が世界についてどう推論するかの中心であるが、多くのAIモデルはこれを考慮に入れていない。多くの開発者がモデルの不確実性に対処するために取り組んでいるが、個人の視点から不確実性に対処するための作業はあまり行われていない」と、ケンブリッジ大学工学部の筆頭著者、Katherine Collinsは話している。
われわれは常に確率のバランスに基づいて決定を下しているが、多くの場合、実際にはそれについて考えていない。ほとんどの場合、たとえば、友人のように見えるが、まったく見知らぬ人であることが判明した場合、物事を間違えても害はない。ただし、特定のアプリケーションでは、不確実性に実際の安全上のリスクが伴う。
「多くの人間とAIのシステムは、人間が常に自分の決定を確信していると想定しているが、これは人間のやり方ではない。われわれは皆間違いを犯す。われわれは、人々が不確実性を表明した際に何が起こるかを調べたかった。これは、医療AIシステムを使用する臨床医のように、安全性が重要な環境で特に重要である」(Collins)。
「これらのモデルを再調整するためのより良いツールが必要になる。モデルを扱う人々が、不確実であると言うことができるようにである。機械は完全に自信を持ってトレーニングできるが、人間はこれを提供できないことが多く、機械学習モデルはその不確実性に苦労している」と、ケンブリッジのGonville & Caius CollegeでMEngの学位を最近取得した共著者、Matthew Barkerは話している。
その研究のために、研究チームは、ベンチマーク機械学習データセットのいくつかを使用した:1つは数字分類用、もう1つは胸部X線分類用、もう1つは鳥の画像の分類用だった。最初の2つのデータセットでは、チームは不確実性をシミュレートしたが、鳥のデータセットについては、人間の参加者に、鳥が赤かオレンジかなど、見ている画像の確実性を示させた。人間の参加者によって提供されたこれらの注釈付きの「ソフトラベル」により、研究チームは最終出力がどのように変更されたかを判断することができた。しかし、チームは、機械が人間に置き換えられると、パフォーマンスが急速に低下することを発見した。
「何十年にもわたる行動研究から、人間が100%確実であることはほとんどないことがわかっているが、これを機械学習に組み込むのは難しい。われわれは、機械学習が人間がシステムの一部であるという人間の不確実性に対処し始めることができるように、2つの分野をブリッジしようとしている」とBarker氏は話している。
研究チームは、その結果は、機械学習モデルに人間を組み込む際のいくつかの未解決の課題を特定したと考えている。チームは、さらなる研究を実施できるようにデータセットを公開し、機械学習システムに不確実性を組み込むことができるようにしている。
「われわれの同僚の何人かが見事に言ったように、不確実性は透明性の一形態であり、それは非常に重要である。モデルを信頼できるとき、また人間を信頼できるとき、さらにその理由を理解する必要がある。特定のアプリケーションでは、可能性よりも確率に注目している。特にチャットボット(chatbots)の台頭に伴い、より自然で安全な体験につながりうる可能性の言語をよりよく取り入れたモデルが必要だ」とCollinsは,話している。
「ある意味で、この研究は答えた以上の問いを提起した。しかし、人間は不確実性を誤って調整しているかも知れないが、人間の行動を説明することで、これらのヒューマンインザループシステム(human-in-the-loop systems)の信頼性と信頼性を向上させることができる」とBarkerは,コメントしている。