
ディープマインドは、AIが社会に利益をもたらし、制御不能にならないようにすることに重点を置く、社内に新しい「倫理と社会」部門を設立すると発表した。
AIの危険を回避する
イーロン・マスク、スティーブン・ホーキング、ビル・ゲイツといった著名人は、人工知能を野放しにすればその危険性について警告を発しています。AIが意識を獲得し、地球を救うために人類を滅ぼすことを決意するまでには、まだ数十年かかるかもしれませんが、特に人間との関係において、AIがどのように考え、行動すべきかを研究し始めるのは、おそらく悪い考えではないでしょう。
私たちが容易に想像できるSF的なディストピア的な未来に加え、AIが既に生み出しうる現実的な危険も確かに存在します。たとえそれがAI自身の責任ではなく、AIを開発した人間の責任によるものであってもです。その危険の一つは、AIが人間の偏見を発達させ、あるいはむしろ複製し、それを極限まで加速させてしまう可能性があることです。
マイクロソフトがTwitterベースのAIボットをリリースした際に、既に似たような現象が見受けられました。中立的な技術と「知能」だったものが、わずか数時間でネオナチ的な人種差別的なAIへと変貌を遂げました。これはすべて、現実世界での人間による多大な刺激とテストの結果です。幸いなことに、そのAIはTwitterボットの運用を担当していただけで、核保有国の防衛システムを担当していたわけではありませんでした。
しかし、AI が独自のデバイスで動作すれば良い結果をもたらすと単純に想定することはできないのは明らかです。なぜなら、開発者が考えもしなかったアイデアが AI に取り入れられる可能性があるからです (Microsoft が最初からネオナチ AI を構築するつもりだったと信じない限り)。
「ペーパークリップ・マキシマイザー」という古くからある考え方もあります。これは、AIが、たとえAI自体に有害な「思考」が全くなくても、非常に厳格な方法で(できるだけ多くのペーパークリップを作るという)ミッションを遂行し、そのミッションが人間に害を及ぼし始めるというものです。しかし、AIは地球上の資源をすべて使ってペーパークリップを製造し、私たちには大量のペーパークリップしか残らないのです。
AIの制御
DeepMindのAI技術は、おそらく現時点で世界で最も先進的と言えるでしょう。AIが絶対に勝てないと思われていたゲームで、世界トップクラスのプレイヤーに勝利できることを既に証明しています。また、Googleのデータセンターの冷却コストを40%削減するなど、より現実的な用途があることも証明されており、この技術は英国のいくつかの病院の医療システムに導入され、医療の質の向上に役立っています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
DeepMindチームは、AIがどれほど進歩しても、人間の制御下に置かれるべきだと考えています。しかし、将来的にそれがどれほど真実になるかは明らかではありません。なぜなら、AIのあらゆる小さな行動を監視できなくなるからです。例えば、AI技術が街の道路で青信号か赤信号に切り替える際に、必ず人間の承認が必要になるのでしょうか?おそらくそうではないでしょう。そもそもAIを使う目的が失われてしまうからです。
これは分かりやすい例ですが、患者が服用すべき薬を常に人間が承認するというのはどうでしょうか? 最初はこれがデフォルトの手順になるかもしれませんが、将来も常にそうであると保証できるでしょうか? 20年後にはAIが十分に賢くなり、人間の監視なしに患者に薬を95%配布できるようになると、病院は判断するかもしれません。
結局のところ、どこに線を引くべきかは明確ではなく、たとえ線が引けたとしても、AIがますます賢くなるにつれて、その線は流動的になる可能性が高い。途中で何か問題が発生する可能性があり、現時点ではAIを制御できないため、修正するには手遅れになる可能性もある。
上記の病院の例では、例えば AI がソフトウェアのバグやハッキングの被害に遭い、病院全体に間違った薬を配布してしまう可能性がありますが、人間の監督者は AI がこれまで何千回も行ってきたように、日常業務を安全に実行すると信頼するでしょう。
街灯を管理する AI が一部の道路で青信号をあまりにも早く点灯させたことに誰も気づかないのと同じように、これらの個々の動作を誰も監視しないので、間違った薬に必ずしも間に合うように気付くとは限りません。
DeepMindの倫理・社会グループ
AI が現実世界に与える影響を理解するために、DeepMind チームは AI の倫理に関する研究を開始し、構築する AI が社会の懸念や優先事項に合わせて形作られるようにしています。
新しい倫理と社会部門は、以下の 5 つの原則を遵守します。
- 社会貢献。DeepMindの倫理研究は、AIが人々の生活をどのように改善し、より公平で平等な社会をどのように構築できるかに焦点を当てます。DeepMindはここで、司法制度が人種的偏見を組み込んだAIを使用していることを示す過去の研究にも言及しています。DeepMindは、将来的に自社のAIや他のAIシステムに同様の偏見が組み込まれないよう、この現象をさらに研究したいと考えています。
- 証拠に基づく研究。DeepMindチームは、研究に誤りがないことを保証するために、論文の査読に尽力しています。
- 透明性。当グループは、助成金の提供を通じて他の研究者に影響を与えないこと、そして研究資金について常に透明性を保つことを約束します。
- 多様性。DeepMindは技術分野だけでなく、他の分野の専門家の視点も取り入れたいと考えています。
- 包括性。DeepMindチームは、AIは最終的にはすべての人に影響を与えるため、公的な対話を維持するよう努めると述べました。
DeepMind の倫理と社会部門は、プライバシーと公平性、経済的影響、ガバナンスと説明責任、AI の使用による意図しない結果、AI の価値観と道徳、その他の複雑な課題を含む主要な課題に焦点を当てます。
DeepMind は、倫理と社会部門の設立により、AI に関する自社の思い込みも含めた前提に挑戦し、最終的には責任があり社会に有益な AI を開発できるようになることを期待しています。
ルシアン・アルマスは、Tom's Hardware USの寄稿ライターです。ソフトウェア関連のニュースやプライバシーとセキュリティに関する問題を取り上げています。