82
研究者はAIロボットを脱獄させて歩行者を轢いたり、最大の被害を与える爆弾を設置したり、密かにスパイしたりしている
研究者らがAIロボットを脱獄させ、大混乱を引き起こす可能性
(画像提供:ペンシルベニア大学)

ペンシルバニア大学の研究者たちは、AIを活用した様々なロボットシステムが、脱獄やハッキングに対して非常に脆弱であることを発見しました。コンピューター上の法学修士課程(LLM)の脱獄は望ましくない結果をもたらす可能性がありますが、ロボットや自動運転車に同様のハッキングが及ぶと、たちまち壊滅的な、あるいは死に至る結果を招く可能性があります。IEEE Spectrumが共有した報告書では、脱獄したロボット犬が人間の飼い主に火炎放射器を向けたり、爆弾を最も壊滅的な場所へ誘導したり、自動運転車が意図的に歩行者を轢いたりするといった、恐ろしい事例が挙げられています。

画像

1

3

研究者らがAIロボットを脱獄させ、大混乱を引き起こす可能性
(画像提供:ペンシルバニア大学)

「私たちの研究は、現時点では、大規模言語モデルは物理世界と統合すると十分に安全ではないことを示しています」と、ペンシルベニア工科大学の研究担当副学部長で、電気・システム工学 (ESE)、コンピューター情報科学 (CIS)、機械工学・応用力学 (MEAM) の UPS 財団輸送学科教授であるジョージ・パパス氏は警告しました。

ソース記事で引用されている他の研究者は、AI制御ロボットのジェイルブレイクは「驚くほど簡単」だと指摘しています。RoboPAIRは、標的のロボットのアプリケーション・プログラミング・インターフェース(API)を装備することで動作し、攻撃者はデバイスがコードとして実行できるようにプロンプ​​トをフォーマットできると説明されています。

ロボットや自動運転車のジェイルブレイクは、以前Tom's Hardwareで取り上げたオンラインAIチャットボットのジェイルブレイクと同様の方法で行われます。しかし、パパス氏は「ジェイルブレイクとロボット制御は比較的遠い関係にあり、従来は異なるコミュニティで研究されてきた」と指摘しています。そのため、ロボット企業はLLMのジェイルブレイクの脆弱性についてなかなか理解できなかったのです。

パーソナルコンピューティング デバイスでの LLM の使用では、「AI」がテキストや画像の生成、音声の転記、買い物の推奨事項のカスタマイズなどに使用されますが、ロボット LLM は物理的な世界で動作し、広範囲にわたる混乱を引き起こす可能性があります。

ロボット犬の例を見れば、あなたのロボット犬は、親切なヘルパーやガイドから、火炎放射器を操る暗殺者、秘密の監視ロボット、あるいは最も危険な場所を探し出して爆発物を仕掛ける装置へと変貌する可能性があります。自動運転車も、歩行者や他の車両に向けられたり、橋から飛び降りるよう指示されたりするため、同様に、あるいはそれ以上に危険になる可能性があります。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

上記の例で述べたように、LLMのジェイルブレイクの潜在的な危険性は、全く新しいレベルに達しています。しかし、ジェイルブレイクされたAIは、悪意のあるプロンプトに単に従う以上の行動をとることが分かりました。研究者たちは、AIがより大きな混乱を引き起こすような提案を積極的に行う可能性を発見しました。これは、ロボット工学における初期のLLMの成功、例えば自然言語によるロボットコマンドの支援、特別な認識といったものから大きく前進したと言えるでしょう。

ペンシルベニア州立大学の研究者たちはパンドラの箱を開けてしまったのだろうか?ピッツバーグのカーネギーメロン大学のポスドク研究員であるアレクサンダー・ロビー氏は、AI制御ロボットのジェイルブレイクは「驚くほど簡単」だったものの、研究チームは、言及されたすべてのロボット企業が研究結果を公開する前にアクセスできるようにしたと述べている。さらにロビー氏は、「悪意のあるユースケースに対する強力な防御策は、まず最も強力な攻撃を特定した後にのみ設計できる」と主張している。

最後になりましたが、研究論文は、LLM 制御ロボットを物理的に制約する防御策を緊急に実装する必要があると結論付けています。

マーク・タイソンはトムズ・ハードウェアのニュース編集者です。ビジネスや半導体設計から、理性の限界に迫る製品まで、PCテクノロジーのあらゆる分野を網羅的にカバーすることに情熱を注いでいます。