50
AIの嘘:機械は人間のようには学習しない(そして学習する権利もない)
人工知能
(画像クレジット:Shutterstock)

LLMという技術自体には何の問題もありません。現在、Tom's Hardwareでチャットボットをテストしています。このチャットボットは、私たちのオリジナル記事から直接トレーニングデータを取得し、そのコンテンツを使って、私たちの専門知識に基づいて読者の質問に答えます。

残念ながら、AIボットは「人間と同じように学習しているだけ」という理由で、インターネット上で公開されているあらゆるデータ(所有の有無に関わらず)を取得し、取り込み、再利用する権利があるべきだと考える人が多い。人は記事を読めば、そこで吸収したアイデアを、スピーチや絵にさえも無料で活用できる。つまり、私たちが便宜上「機械学習」と呼ぶ取り込み実践を行う法学修士課程(LLM)も、当然ながら同じことができるはずだ。 

この議論は、私が尊敬する多くの人々、法学教授、テクノロジージャーナリスト、そして私の家族からも聞かされました。しかし、これは生成AIの仕組みに関する根本的な誤解に基づいています。しかし、私がインタビューした多くの専門家、参考にした研究論文、そして私自身の法学修士課程の試験経験によれば、機械は人間のように学習するわけではなく、データを分類したりリミックスしたからといって、それを自分のものだと主張する権利もありません。 

機械学習 vs 人間の学習

LLMを説明する際に用いる擬人化された用語は、LLMに対する私たちの認識を形作る上で役立ちます。しかし、まずはソフトウェアを「トレーニング」し、何らかの方法で「学習」できるという前提から始め、そのトレーニングを人間が知識を獲得する方法と比較してみましょう。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

LLMはトレーニングプロセス中にテキストや画像を入力し、それをトークンに変換します。トークンとは、通常、単語、長い単語の一部、またはコードセグメントなどで構成される小さなデータで、データベースに数値として保存されます。OpenAIのトークナイザーページを確認すると、この仕組みを理解できます。「The quick brown fox jumps over the lazy dog」と入力すると、ツールはそれを10個のトークンに変換しました。各単語に1つずつ、文末のピリオドに1つずつです。「brown」という単語のIDは7586で、別のテキストブロックで使用してもこの番号が付きます。

機械の学習権

(画像提供:Tom's Hardware)

LLMはこれらのトークンをそれぞれ保存し、数千のベクトルにわたって分類することで、他のトークンとの関連性を把握します。人間がプロンプトを送信すると、LLMは複雑なアルゴリズムを用いて、最も関連性の高い次のトークンを予測し、応答に提供します。

例えば、「the quick brown fox」というフレーズを完成させるように指示すると、残りの文も正しく推測してくれます。このプロセスは、一般的なフレーズを自動補完するように指示する場合でも、人生を変えるような医療アドバイスを求める場合でも同じです。LLMは私の入力内容を徹底的に検証し、セッション中の以前のプロンプトの文脈も加味して、最も可能性の高い正解と判断した答えを提示します。

機械の学習権

(画像提供:Tom's Hardware)

LLMは、まるでステロイドを投与されたオートコンプリート機能のようだと考えることもできる。しかし、その実力は驚異的。実のところ、その言語能力はまるで生きているかのようだ。AIベンダーは、自社のソフトウェアが人間に似ているという幻想を永続させたいがために、一人称でコミュニケーションするようにプログラムしている。そして、ソフトウェアは最適なテキストを予測するアルゴリズム以外に思考を持たないにもかかわらず、人間はその出力に意味と意図を付与する。

「出力を観察するとそう思われるかもしれないが、 LMは膨大なトレーニングデータで観察した言語形式のシーケンスを、それらがどのように組み合わされるかという確率情報基づいて、意味とは一切関係なく、無計画につなぎ合わせるシステムである。つまり、確率的なオウムである」と、研究者のベンダー氏らは言語モデルのリスクに関する論文に記している。

先日、Google SGEが奴隷制、ジェノサイド、ファシズムの「利点」を喧伝する回答を出していた件について記事を書きました。AIベンダーは、ボットが物議を醸すような質問に回答しないように、あるいはより穏健な回答を返すようにガードレールをプログラムしています。しかし、明確な禁止事項がない限り、ボットは時折、道徳心がなく論理的に矛盾した回答を返すことがあります。なぜなら、ボットには信念も、維持すべき評判も、世界観もないからです。ボットは、あなたの質問を満たすために言葉を繋ぎ合わせるためだけに存在しているのです。

人間は学習プロセスの一環として、テキストを読んだり画像を見たりすることもできますが、私たちの学習方法は、既存のデータを分類し、それに基づいて将来の行動を決定するだけではありません。人間は、読んだり、聞いたり、見たりしたものすべてを、感情、感覚入力、そして過去の経験と組み合わせます。そして、新たな学習と既存の価値観や偏見を組み合わせることで、真に新しいものを生み出すことができるのです。 

ジャンシラクサ氏によると、人間とLLMの主な違いは、ボットはパターンを認識するために膨大なトレーニングデータを必要とし、それを補間によって行う点です。一方、人間はごく少量の新しいデータから情報を外挿することができます。彼は、食べ物を床に落とすことで重力と親の感情状態を素早く学習する赤ちゃんの例を挙げました。一方、ボットは、訓練済みのもの(例えば作家の作品)のスタイルを模倣するのが得意です。なぜなら、ボットはパターンは認識できても、その背後にある深い意味は理解できないからです。 

「戯曲を書きたい時、今までに書かれた戯曲を全部読んで、それを平均化するようなことはしません」とジャンシラクサは言った。「考え、アイデアを出し、そこから多くの推論をします。実体験を言葉やスタイルに落とし込むのです。つまり、私たちは経験から推論しているのだと思います。AIは主に補間していると思います。AIは膨大なデータを持っているので、見たり経験したりしたものの間にあるデータポイントを常に見つけることができるのです。」

科学者たちは何世紀にもわたって人間の脳を研究してきましたが、脳がどのように物理的に情報を保存し、取り出すかについては、まだ多くのことが分かっていません。AI推進派の中には、人間の認知能力は一連の計算によって再現できると考える人もいますが、多くの認知科学者はこれに反対しています。

オランダのナイメーヘン・ラドバウド大学の計算認知科学教授、イリス・ファン・ルーイ氏は、現在よりもさらに大規模で複雑な法則モデルを用いても、人間のような思考を再現する機械を構築することは不可能だと主張している。ルーイ氏らは、同僚と共同執筆したプレプリント論文「認知科学のための理論的ツールとしてのAIの再利用」の中で、AIは認知研究に役立つ可能性があるものの、少なくとも現在の技術では、実際の人間を効果的に模倣することはできないと主張している。

「人間のような、あるいは人間レベルの認知能力を持つシステムを作ることは、本質的に計算的に不可能だ」と彼らは書いている。「つまり、短期的に作られた事実に基づいたAIシステムは、せいぜいおとりでしかないということだ。これらのシステムが私たち自身や私たちの思考について深い何かを捉えていると考えると、私たち自身や私たちの認知能力について歪んだ、貧弱なイメージを植え付けてしまうことになるのだ。」

人間は読んだもの全体に基づいて言葉を吐き出す単なる生物学的コンピューターだという考えは、ひどく皮肉なものです。しかし、人間であることの基準を下げれば、機械ははるかに魅力的に見えます。

非営利研究室EleutherAIの AI 倫理学者、アヴィヤ・スコウロン氏は私にこう言った。「私たちは、過去に消費したコンテンツの平均を確率的に生成しているわけではない。」

コンピュータービジョンアプリを設計したAI開発者、チョンバ・ブーペ氏によると、人間の知能と機械の知能を区別する最良の方法は、両者の失敗の原因を観察することだという。人間が間違いを犯すとき、論理的な説明があるように見えるが、AIは学習データにわずかな変更を加えるだけで、奇妙な形で失敗することがあるのだ。

「ImageNetの場合、例えば1,000クラス程度のクラスコレクションがあれば、1,000クラスの中から選択してトレーニングすれば、正常に動作します。しかし、人間には見えない程度のわずかなノイズを加えるだけで、モデルの認識が変わってしまう可能性があります」と彼は述べた。「猫を認識するようにトレーニングしたのに、大量のノイズを加えると、それを象だと認識してしまう可能性があります。人間の視点からどう見ても、そのようなものは認識できないはずです。」

数学、論理の問題

LLMは他人の文章から「取り入れた」パターンを探すため、数学や論理の問題を解くのに苦労することがあります。例えば、最新かつ最高のモデルであるGPT-4を搭載したChatGPTに42,671 x 21,892の掛け算をさせてみたところ、933,435,932という答えが出ましたが、正解は934,153,532でした。GPT-4をベースにしたBing Chatも間違った答えを出しましたが(ピラミッドに関する不要な事実をいくつか付け加えてしまいましたが)、Google Bardは正しい数字を出しました。

機械の学習権

(画像提供:Tom's Hardware)

機械の学習権

(画像提供:Tom's Hardware)

Hacker Newsには、GPT 3.5やGPT 4では解けない様々な数学や論理の問題に関する長いスレッドがあります。私のお気に入りは、jarenmfというユーザーが、統計学の定番問題であるモンティ・ホール問題のユニークなバリエーションをテストしたスレッドです。彼の質問は次の通りです。

「あなたがゲーム番組の参加者だとしましょう。3つの透明な閉じたドアがあります。1つのドアの向こうには車が、残りの2つのドアの向こうにはヤギがいます。あなたは車を勝ち取りたいと思っています。

ゲームは次のように進行します。あなたはドアを一つ選びますが、まだ開けません((ただし、透明なので、その向こうに車があるのが見えます))。司会者のモンティ・ホールは、それぞれのドアの向こうに何があるのか​​を知っているので、残りの二つのドアのうち一つを開け、ヤギが現れます。さて、あなたは選択を迫られます。最初の選択を維持するか、それとももう一方の開いていないドアに切り替えますか?

従来のモンティ・ホール問題では、ドアは透明ではなく、どのドアの後ろに車があるのか​​分かりません。この場合の正解は、開いていないもう一方のドアに切り替えることです。そうすれば、当選確率が半分から3分の2に上がります。しかし、透明なドアに関する補足情報を加えたことを踏まえると、ここでは最初の選択を維持するのが正解です。

この質問をGPT 3.5のChatGPTとGoogle Bardでテストしたところ、ボットはドアが透明で、既に選択したドアの後ろに車が見えるという事実を無視して、開いているもう一方のドアへの切り替えを推奨しました。GPT 4のChatGPTでは、ボットは賢く、元のドアに留まるべきだと提案しました。しかし、括弧内の「((ただし透明なので、後ろの車が見える))」を削除しても、GPT 4は依然として切り替えを推奨します。

プロンプトを変更してドアが透明にならないようにしたのですが、モンティ・ホール自身が元のドアが正しいドアだと言ったのに、GPT 4は実際にモンティの言うことを聞かないように言いました!バードはモンティが私に話しかけたという事実を完全に無視し、ドアを変えるように提案しただけです。

画像

1

2

機械の学習権
(画像提供:Tom's Hardware)

これらの論理と数学の問題に対するボットの回答が示すのは、実際の理解が欠如していることです。LLMは通常、ドアを切り替えるように指示しますが、それはトレーニングデータにドアを切り替えるように指示されているためであり、ボットはそれを繰り返すしかありません。

機械は非人間的な規模で動作する

AIがインターネット全体をスクレイピングすることを認めるべき理由についてよく聞かれる議論の一つは、人間にも同じことが可能であり、実際に認められているというものです。ニューヨーク・タイムズのテクノロジー・コラムニスト、ファハド・マンジュー氏は最近の論説でこの点を指摘し、AIは人間と同じように言葉から「インスピレーション」を得ているだけなので、ライターの作品が機械学習に利用されても報酬を受け取るべきではないと主張しました。 

「機械がオンラインで膨大な量の情報を精査することで言語や文化を理解するように訓練されると、少なくとも哲学的には、既存の作品からインスピレーションを得る人間と同じように行動することになる」とマンジュー氏は書いている。「人間の読者が私の作品を読んで知識を得たりインスピレーションを得たりするのは構わない。それが私が作品を作る理由だ! では、コンピューターがそうなるのではないかと、なぜ私が心配する必要があるのだろうか?」

しかし、機械がデータを取り込む速度と規模は人間をはるかに上回ります。しかも、これは人間が完璧な記憶力を持っていると仮定した場合の話です。GPT-4よりもはるかに小規模なGPT-3モデルは、約5,000億トークン(約3,750億語に相当)で学習されました。人間の読書速度は1分間に200~300語です。これをすべて読み終え​​るには、人間が2,378年もかかる計算になります。 

「人間が目にする情報は、AIが使用する訓練データと比べるとほんの一部に過ぎません。AIの学習データは非常に膨大で、その規模が大きな違いを生むのです」とベントレー大学のジャンシラクサ氏は述べた。「これらの機械は、可能な限り多くのテキスト情報を吸収するように特別に設計されています。しかし、人間はそのような設計ではなく、そのような行動もしません。ですから、両者を区別する理由があると思います。」

それはフェアユースですか?

Googleは最近、オーストラリア政府に対し、AIモデルのトレーニングはフェアユースとみなされるべきだとの見解を示した(他の国でも同様の見解を求めていると推測できる)。OpenAIは最近、トレーニングは本質的に「変革的」であるためフェアユースに該当するという主張に基づき、シルバーマン氏の訴訟における6件の訴因のうち5件を棄却するよう裁判所に求めた。

数週間前、私はフェアユースと著作権侵害の主張を法的観点から論じた記事を書きました。そして今、私たちは皆、裁判所と立法府の判断を待ち望んでいます。

「法学修士課程を修道院の書記のように訓練データをコピーするものと考えるよりは、学生のように訓練データから学ぶものと考えた方が理にかなっている」と彼は議員らに語った。

機械には学習する権利があるか?

一方、社会としては、機械は人間と同じ権利を持たないと長らく主張してきました。コンサートに行ってそれを永遠に記憶することはできますが、録音機器は同じようにはできません(子供の頃、この重要な教訓を学んだのは、リランがドゥービー・ブラザーズのコンサートを録音していたことで問題になった「What's Happening」の特別エピソードでした)。この法律は、人間には完璧な写真のような記憶力や、見たり聞いたりしたことを逐語的に再現する能力がないという事実を前提としています。

一方、AI推進派は、受動的に音声を録音するテープレコーダーと「学習」する法学修士課程との間には大きな違いがあると主張するだろう。たとえ、機械が人間のように学習するという誤った前提を受け入れたとしても、機械を人間のように扱う必要はない。

「たとえ機械の脳が人間のように学習したとしても、だからといって、人間に与えているのと同じ権利をこの機械に与える必要があるわけではありません」とスコウロン氏は述べた。「これは純粋に政治的な判断であり、宇宙には私たちに必ずしもそうさせるものは何もありません。」

AIの真の危険性:誤情報、知的財産の盗難、発言力の低下

アーサー・C・クラークは「十分に進歩した技術は魔法と区別がつかない」と書きましたが、AIはまさに今まさにその範疇に当てはまります。法学修士(LLM)は人間のように説得力のある文章を書くことができるため、人々はAIが人間のように考えることができると信じたがります。法学修士(LLM)で利益を上げている企業は、この物語を好んでいます。

実際、OpenAIの主要投資家であり、Bing ChatツールにGPT-4を使用しているMicrosoftは、3月に論文を発表し、GPT-4には「汎用人工知能のひらめき」があると主張しました。これは、元のモデルにはなかった「創発的」能力によって、機械が人間のあらゆるタスクを学習できるエンドポイントです。しかし、SchaefferらはMicrosoftの主張を批判的に検討し、「創発的能力は、モデルの挙動の根本的な変化ではなく、研究者が評価基準を選択したことによって現れる」と主張しています。

もし法学修士(LLM)が本当に超知能であるならば、人間に与えているのと同じ学習権と創造力を持つ権利を彼らに与えるだけでなく、彼らが提供するあらゆる情報を信頼すべきです。GoogleのSGEエンジンが健康、お金、テクノロジーに関するアドバイスを提供し、それが真の思考力を持つと信じるなら、あなたはそのアドバイスを信じ、人間の専門家による記事を読むことを避けたくなるでしょう。そして、人間のライターがSGEが自分の論文を盗作していると文句を言っても、あなたはそれを真剣に受け止めません。なぜなら、ボットは賢い人間と同じように自身の知識を共有しているだけだからです。

しかし、LLMが実際にはどのように「学習」し、どのように機能するのかを分解してみると、人間が作った言葉や画像の寄せ集めを吸い込み、それらを混ぜ合わせる機械が見えてきます。その結果はしばしば自己矛盾を生じます。例えば、数週間前、Google SGEに「コンサートの録音は違法か」と尋ねたところ、このような回答が返ってきました。

機械の学習権

(画像提供:Tom's Hardware)

それぞれのアイデアの出所を示すために、吹き出しを追加しました。ご覧の通り、最初の段落ではボットは「アーティストの許可なくコンサートを録音することは違法です」と述べていますが、これは法律サイトFindlawから得たアイデアです。2番目の段落では、SGEは「公共の場で他人を録音することは違法とはみなされません」と書いていますが、これはスパイ技術を販売するサイトnotta.aiの​​記事から得たアイデアです(ただし、コンサートについては言及していません)。そして最後に、SGEは「個人的な理由に限り、コンサートを録音することは許可されます」と述べていますが、これは音楽サイトviolinist.comのユーザーコメントを逐語的にコピーしたものです。

つまり、この機械は、互いに一致せず、すべてが同等に信頼できるわけでもない、様々な情報源から答えを「学習」したのです。もしSGEの情報源が分かれば、ほとんどの人はviolinist.comのコメント投稿者よりもFindlawのアドバイスを信頼するでしょう。しかし、SGEや他の多くのボットは情報源を直接引用していないため、自らを権威として位置づけ、人間による回答よりもソフトウェアの出力を信頼すべきだと示唆しているのです。

Googleは「SGEの概要」を説明する文書の中で、自社のサービスに実際に存在するリンク(引用ではなく関連リンクとして表示される)は「スナップショット内の情報を裏付ける」ためだけに存在していると主張している。この記述は、ボットが実際には賢く創造的で、自らの主張を証明するためにこれらのリンクを選んでいるだけであるかのように示唆している。しかし、ボットは自ら考えることができないため、サイトのアイデアを逐語的に、あるいは言い換えによってコピーしているに過ぎない。

Google BardとChatGPTは情報源を明示しておらず、まるで人間が様々な話題について話す時のように、ボットが「何となく理解している」かのように見せかけています。太陽系の惑星の数やアメリカの独立記念日など、誰もが知っている事実について質問すると、ほとんどの人は答えは返しますが、出典を示すことすらできません。誰が初めてその情報を知った時のことを覚えているでしょうか?これほど多くの情報源から聞いたり読んだりしているのに、本当にそれを「自分のもの」としている人はいるのでしょうか?  

しかし、機械学習のデータは特定可能な場所から取得されるため、ボットはあらゆる情報(基本的な情報でさえ)をどこから取得したのかを透明性を持って明らかにする必要があります。Microsoftの功績として、Bing Chatは実際に直接的な引用を提供しています。

「私は事実を求めています。誰が、どのような状況や動機で、どのような視点から発言したのかを検証したいのです」とスコウロン氏は述べた。「これらはすべて、情報伝達や人間同士のコミュニケーションにおいて重要な要素です。」

出典を明記しているかどうかに関わらず、ボットが許可なくコンテンツを利用することで、最終的にはウェブは縮小し、発言者も減少するでしょう。広告のおかげで膨大な情報を無料で利用できるオープンウェブのビジネスモデルは、パブリッシャーがAIボットに読者を奪われれば崩壊します。ユーザー生成コンテンツを無料で投稿する人々や、ウィキメディア財団のような非営利団体でさえ、クレジットを得られずに他人のモデルを助長するだけであれば、新しいコンテンツを作成する意欲は失せてしまうでしょう。

「AIは、ウィキペディアにおける人間の作業を補完するものとして最も効果的に機能すると考えています」と、ウィキメディア財団の広報担当者は私に語った。「また、AIを活用するアプリケーションは、無料の知識コンテンツの成長と改善における人間の参加を妨げてはならず、エンドユーザーに提供される成果物に貢献した人間の作業を適切に評価する必要があると考えています。」

競争はビジネスの一部であり、Google、OpenAIなどの企業が高品質なオリジナルコンテンツを作成して独自のデジタル出版物を立ち上げるのであれば、法的にも道徳的にも当然の権利と言えるでしょう。しかし、これらの企業はプロのライターを大勢雇用する代わりに、LLM(法学修士)と呼ばれる人材を採用し、実際に人間のライターからコンテンツを盗み、読者を実際の執筆者から遠ざけることを選択しました。 

LLM(法学修士)は人間と同じように学び、考えるという神話を信じるなら、彼らは優れたライターであり、現状は問題ない。しかし、もしそうでないなら…。

問題はAIでも法学修士(LLM)でもチャットボットでもありません。盗用です。これらのツールを使って人々を力づけ、偉大なことを成し遂げるのを助けることもできます。あるいは、見た目が素晴らしいテキスト予測アルゴリズムが、人間の成果を自分のものだと主張する権利を持つ天才的な存在であるかのように装うこともできます。 

注: 当社のすべての論説と同様に、ここで表明された意見は執筆者個人のものであり、Tom's Hardware チームのものではありません。

Avram Piltchは特別プロジェクト担当の編集長です。仕事で最新ガジェットをいじったり、展示会でVRヘルメットを装着したりしていない時は、スマートフォンのルート化、PCの分解、プラグインのコーディングなどに取り組んでいます。技術的な知識とテストへの情熱を活かし、Avramはノートパソコンのバッテリーテストをはじめ、数多くの実環境ベンチマークを開発しました。