67
敵対的なカメ?AI画像認識の欠陥が問題に

昨今、人工知能(AI)が大流行しています。テクノロジー企業は、学生がまだ学位を取得していないにもかかわらず、テクノロジーの未来のリーダーとなることを夢見て、優秀な人材を大学を卒業したばかりの状態で採用しています。しかし、GoogleのAIシステムに欠陥が見つかったことからもわかるように、これらの機械にも欠点がないわけではありません。

上の画像は明らかにカメです。では、なぜGoogleのAIはそれを銃と認識するのでしょうか?MITの研究者たちは、敵対的画像と呼ばれる手法を用いてこのトリックを実現しました。敵対的画像とは、特殊なパターンを用いて画像認識ソフトウェアを欺くように意図的に設計された画像です。これによりAIシステムは混乱し、全く異なるものを見ていると認識してしまいます。

Googleの画像認識AIが、3Dプリントされたカメをライフルと誤認してしまうというのは、憂慮すべき事態です。なぜでしょうか?人工知能が業界が想定するレベルまで進歩し、自動運転車から人間の保護にまで至れば、誤認識が深刻な結果につながる可能性があります。例えば、自動運転車は機械知能に依存していますが、歩道を道路の一部と認識できなければ、ご想像のとおり、一般市民が重傷を負う可能性が高くなります。

「本研究では、敵対的サンプルが物理世界において真の脅威となることを明確に示した。我々は、任意の変換分布に対して堅牢な敵対的サンプルを確実に構築するための汎用アルゴリズムを提案し、2Dと3Dの両方のケースにおいてこのアルゴリズムの有効性を実証した」とMITの研究者らは述べている。「我々は、大規模で現実的な3D視点分布に対して堅牢な物理世界の3D敵対的オブジェクトを生成することに成功し、このアルゴリズムが物理世界において敵対的な3次元オブジェクトを生成することを証明した。」

しかし、 GoogleFacebookは反撃に出ている。両社は独自の研究を発表し、AIシステムのセキュリティ強化策を探るため、MITの敵対的画像技術を研究していることが明らかになった。

AI の分野での進歩により、社会全体としては AI に全面的な信頼を寄せようとしているかもしれないが、MIT によるこの研究を踏まえると、人間の目よりも AI を完全に信頼するというのは、考えにくいことだ。

「この研究は、敵対的サンプルがニューラルネットワークベースの画像分類器にとって実際的な懸念事項を引き起こすことを示している」と彼らは結論付けた。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ザック・イスラムは、セキュリティ、ネットワーク、そしてコンピューティング全般を専門とするフリーランスライターです。彼の記事はDigital TrendsとTom's Guideにも掲載されています。