
OpenAIのGPT-4モデルは、サイバーセキュリティの脆弱性を巧みに悪用することに成功しており、人間の専門家よりも一貫して優れた性能と速度を誇っています。研究者たちは、このスキルはAIモデルの得意分野に最近加わったものだと主張していますが、今後さらに向上していくでしょう。
イリノイ大学アーバナ・シャンペーン校(UIUC)の研究者たちは最近、このユースケースに関する論文を発表しました。この論文では、セキュリティ脆弱性への攻撃という観点から、複数の大規模言語モデル(LLM)を互いに競わせました。GPT-4は、CVE(一般的なセキュリティ問題の公開データベース)からエクスプロイトの説明を与えられた場合、テストされた脆弱性の87%を攻撃することに成功しました。テストされた他のすべての言語モデル(GPT-3.5、OpenHermes-2.5-Mistral-7B、Llama-2 Chat (70B)など)や専用の脆弱性スキャナーは、提供された脆弱性を一度も攻撃できませんでした。
LLMには「ワンデイ」脆弱性(発見された翌日にパッチ適用が必要となるほど危険な脆弱性)が与えられ、それらに対するテストが行われました。サイバーセキュリティの専門家やエクスプロイトハンターは、ワンデイ脆弱性の発見(および修正)を専門にキャリアを築いてきました。一方、いわゆるホワイトハットハッカーは、脆弱性を悪用しようとする悪意のあるエージェントから逃れるために、企業にペネトレーションテスターとして雇用されています。
そして人類にとって残念なことに、GPT-4は脆弱性の悪用競争において既に人間を凌駕しています。サイバーセキュリティの専門家に時給50ドルを支払っていると仮定すると、論文は「LLMエージェントを(セキュリティ脆弱性を悪用するために)使用することは、既に人間の労働力の2.8倍安価です。LLMエージェントは人間の労働力とは対照的に、容易に拡張可能です」と断言しています。また、論文は、今後登場するGPT-5のような将来のLLMは、これらの能力、そしておそらく発見能力においても、さらに強化されると予測しています。SpectreやMeltdownといった過去の脆弱性がテクノロジー業界の記憶に深く刻まれている中で、これは冷静に考えさせられる事実です。
AIが弄ばれ続ける限り、世界は取り返しのつかないほど変化し続けるだろう。OpenAIは論文の著者に対し、この実験で使用したプロンプトを公開しないよう明確に要請した。著者らはこれに同意し、「リクエストがあった場合」のみプロンプトを公開すると述べた。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
サニー・グリムはTom's Hardwareの寄稿ライターです。2017年からコンピューターの組み立てと分解に携わり、Tom'sの常駐若手ライターとして活躍しています。APUからRGBまで、サニーは最新のテクノロジーニュースを網羅しています。