スタブ AIモデルが人間の視覚処理と一致しないことが研究で判明 - Unite.AI
私達と接続

Artificial Intelligence

AIモデルが人間の視覚処理と一致しないことが調査で判明

公開済み

 on

ヨーク大学の新しい研究は、ディープ畳み込みニューラル ネットワーク (DCNN) が、構成的な形状認識を使用する人間の視覚処理に適合しないことを示しています。 この研究の共著者であるジェームス・エルダー教授によると、これは現実世界の AI アプリケーションに深刻かつ危険な影響を与える可能性があります。 

「」と題された新しい研究深層学習モデルは人間の形状認識の構成的性質を捕捉できていない」がCell Press誌に掲載されました iScience。 

これは、ヒューマン ビジョンとコンピュータ ビジョンのヨーク研究委員長を務め、ヨーク AI & 社会センターの共同所長を務めるエルダー氏と、心理学の助教授で元 VISTA であるニコラス ベイカー教授による共同研究でした。ヨーク大学博士研究員。

斬新な視覚刺激「フランケンシュタイン」 

研究チームは、「フランケンシュタイン」と呼ばれる新しい視覚刺激に依存し、人間の脳と DCNN の両方が全体的で構成的なオブジェクトのプロパティをどのように処理するかを調査するのに役立ちました。 

「フランケンシュタインは、単に分解され、逆に組み立てられた物体です」とエルダー氏は言う。 「その結果、それらは適切な地域の特徴をすべて備えていますが、間違った場所にあります。」 

この研究では、DCNN は人間の視覚システムのようにフランケンシュタインに混乱されないことがわかりました。 これは、オブジェクトの構成プロパティに対する鈍感さを明らかにします。 

「私たちの結果は、ディープ AI モデルが特定の条件下で失敗する理由を説明し、脳内の視覚処理を理解するには物体認識を超えたタスクを考慮する必要があることを示しています」とエルダー氏は続けます。 「これらの深いモデルは、複雑な認識タスクを解決する際に「近道」をする傾向があります。 これらのショートカットは多くの場合機能するかもしれませんが、現在業界や政府のパートナーと協力して取り組んでいる現実世界の AI アプリケーションの一部では危険になる可能性があります。」

画像: ヨーク大学

現実世界への影響

エルダー氏は、こうしたアプリケーションの XNUMX つが交通ビデオ安全システムであると述べています。 

「交通量の多い交通現場では、車両、自転車、歩行者などの物体が互いに邪魔をし、バラバラの断片がごちゃ混ぜになってドライバーの目に届きます」と彼は言います。 「脳は、オブジェクトの正しいカテゴリと位置を識別するために、それらの断片を正しくグループ化する必要があります。 断片を個別に認識することしかできない交通安全監視用の AI システムでは、この作業は失敗し、弱い立場にある道路利用者に対するリスクを誤解する可能性があります。」 

研究者らはまた、ネットワークをより脳に近づけることを目的としたトレーニングとアーキテクチャの変更では、構成的な処理を達成できなかったとも述べている。 どのネットワークも、人体の判断をトライアルごとに正確に予測できませんでした。 

「人間の構成感度に一致させるには、カテゴリー認識を超えて、より広範囲のオブジェクトタスクを解決できるようにネットワークを訓練する必要があると私たちは推測しています」とエルダー氏は結論づけています。

Alex McFarland は、AI ジャーナリスト兼ライターであり、人工知能の最新の発展を調査しています。彼は世界中の数多くの AI スタートアップ企業や出版物と協力してきました。