10
AI 研究者がリスクと潜在的な規制について議論、コンピューティング ハードウェアにブレーキをかけることを提案…
AI研究者がリスクと規制について議論
(画像クレジット:Shutterstock)

OpenAIと様々な大学の研究者が協力し、104ページのPDF文書を公開しました。この文書は、AIが悪意ある目的で利用されている場合にキルスイッチを適用する可能性も含め、ハードウェア自体を規制することでAIコンピューティングの規制を促進することを目的としています。オリジナルのPDFファイルは、ケンブリッジ大学がバレンタインデーの投稿でオンライン公開しました。

「コンピュータパワーと人工知能のガバナンス」と題されたこのPDFでは、PCのコンピューティングパワー(GPUパワーなど)がAIワークロードにどのように活用されているかを解説しています。さらに、AI PCハードウェアのサプライチェーンは少数のベンダーに集中しているため、規制の適用ははるかに容易になるはずだと指摘しています。

「コンピューティングガバナンスのリスクと緩和策」セクションでは、研究者がAIの潜在的なリスクを詳細に説明した上で、潜在的な解決策を提言しています。このセクションの要点を以下にまとめます。

  • 個人のプライバシーへの脅威— AI ハードウェアの監視とレポートの増加に伴うリスクとして、「クラウド プロバイダーからの顧客の使用状況に関する必須レポート」によってプライベートな事項が明らかにされたり、暗示されたりする可能性があります。
  • 機密性の高い戦略情報および商業情報の漏洩機会— 上記の点を踏まえると、政策立案者と十分な情報(通常は秘密保持契約で隠蔽される事項も含む)を共有すると、機密情報の漏洩の可能性が高まります。したがって、あらゆる政策は「情報セキュリティを念頭に置いて、慎重に範囲を定め、実施する必要がある」のです。
  • 経済への悪影響— これはAIの最もよく知られ、かつ議論の的となっている側面の一つです。AIを活用する労働市場の不安定化です。論文でも指摘されているように、過去の研究では、2020年時点でデジタル経済が米国のGDPの10%を占めていることが示唆されています。
  • 権力の集中と集権化によるリスク— 論文で指摘されているように、AIコンピューティングの規制には政治的な影響力も大きく関わっています。「AI関連コンピューティングに対する政府の統制が強化されると、企業を含む強力な主体が国家権力を自らの目的のために行使しようとする可能性があります。」
  • 危険な機能を持つ低演算処理の特殊モデル— 最後に、現行の規制ではハイエンドAIコンピューティング(RTX 4090など)の中国市場への輸出が阻止され始めていますが、こうした制限は、その制約内で活動する悪意のある行為者に対してはあまり役に立ちません。病原体の製造に利用可能なタンパク質折り畳み機能でさえ、低演算処理モデルで実現可能です。この論文のこのセクションでは、「このような低演算処理モデルの規制には、別の政策アプローチが必要になるだろう」と結論付けています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

クリストファー・ハーパーは、2015年からPCハードウェアとゲームを専門とするフリーランスのテクニカルライターとして活躍しています。それ以前は、高校時代に様々なB2Bクライアントのゴーストライターを務めていました。仕事以外では、友人やライバルには、様々なeスポーツ(特に格闘ゲームとアリーナシューティングゲーム)の現役プレイヤーとして、またジミ・ヘンドリックスからキラー・マイク、そして『ソニックアドベンチャー2』のサウンドトラックまで、幅広い音楽の愛好家として知られています。