Artificial Intelligence
チームがニューラルネットワークを比較するアプローチを開発

ロスアラモス国立研究所の研究者チームは、ニューラル ネットワークを比較するための新しいアプローチを開発しました。 研究チームによると、この新しいアプローチは人工知能 (AI) の「ブラック ボックス」内を調べ、ニューラル ネットワークの動作を理解するのに役立ちます。 データセット内のパターンを認識するニューラル ネットワークは、顔認識システムや自動運転車などの幅広いアプリケーションに使用されています。
チームは論文を発表しました。 「XNUMX つをトレーニングしたら、すべてをトレーニングしたことになる: アーキテクチャ間の類似性は堅牢性とともに増加する」」、人工知能における不確実性に関する会議で。
Haydn Jones は、ロス アラモスのサイバー システム先端研究グループの研究者であり、研究論文の筆頭著者です。
ニューラルネットワークをより深く理解する
「人工知能の研究コミュニティは、ニューラル ネットワークが何をしているのかを必ずしも完全に理解しているわけではありません。 彼らは私たちに良い結果をもたらしてくれますが、それがどのように、そしてなぜ起こるのかはわかりません」とジョーンズ氏は語った。 「私たちの新しい手法は、ニューラル ネットワークの比較をより適切に実行します。これは、AI の背後にある数学をより深く理解するための重要なステップです。
この新しい研究は、専門家が堅牢なニューラル ネットワークの動作を理解するのにも役立ちます。
ニューラル ネットワークは高性能である一方で、脆弱でもあります。 自動運転車によって処理されている部分的に覆われた一時停止標識など、状況の小さな変化により、ニューラル ネットワークが標識を誤って認識する可能性があります。 つまり、決して止まらない可能性があり、危険である可能性があります。
敵対的トレーニング ニューラル ネットワーク
研究者らは、ネットワークの堅牢性を向上させる方法を検討することで、この種のニューラル ネットワークを改善することに着手しました。 アプローチの XNUMX つは、トレーニング プロセス中にネットワークを「攻撃」することです。研究者は、AI がそれを無視するようにトレーニングする際に、意図的に異常を導入します。 このプロセスは敵対的トレーニングと呼ばれ、ネットワークがだまされにくくなります。
チームは、ネットワークの類似性という新しい指標を、敵対的に訓練されたニューラル ネットワークに適用しました。彼らは、攻撃の規模が増大するにつれて、ネットワーク アーキテクチャに関係なく、敵対的トレーニングによってコンピューター ビジョン ドメインのニューラル ネットワークが同様のデータ表現に収束することを発見して驚きました。
「敵対的な攻撃に対して堅牢になるようにニューラル ネットワークを訓練すると、ニューラル ネットワークは同じことをし始めることがわかりました」とジョーンズ氏は言います。
専門家がニューラル ネットワークの完璧なアーキテクチャを見つけようと努力したのはこれが初めてではありません。 しかし、新しい発見は、敵対的トレーニングの導入によってそのギャップが大幅に縮まることが示されており、これは、敵対的トレーニングによって多様なアーキテクチャが同様のソリューションに収束することがわかっているため、AI 研究コミュニティがそれほど多くの新しいアーキテクチャを探索する必要がない可能性があることを意味します。
「堅牢なニューラル ネットワークが互いに類似していることを発見することで、堅牢な AI が実際にどの程度機能するかを理解しやすくなります」とジョーンズ氏は述べています。 「人間や他の動物で知覚がどのように起こるのかについてのヒントさえ発見できるかもしれません。」