■Online Journal NAGURICOM
沢栄の「さらばニッポン官僚社会」
第222章 世界は一体どうなる/生成AI革命(上)
(2023年6月28日)

インターネットより大きな変化か

報道されない日がないほど、世界の関心が過熱する対話型生成AI。先行した米新興企業、オープンAIの「チャットGPT」に続き、検索世界最大の米グーグルが5月、日本語で話せる「Bard(バード)」を公開した。
生成AIが仕事と生産性に与える衝撃的な改善効果は、各方面で検証され、研究論文やジャーナルに発表が相次ぐ。その自然な言葉による精度の高い対話式回答に、これまでのITとは全く異なる影響を与えうるとの評価が圧倒的だ。政府の「AI戦略会議」座長の松尾豊・東京大学教授は、「AI対話サービスはインターネットよりも大きな変化を社会に与えるだろう」とまで言う。それほどチャットGPTがAI専門家に与えたインパクトは強烈だった。

だが、その効果が凄い分、悪用された場合の危険性も増す。3月に発表されたチャットGPTの最新モデル「GPT-4」は、その前のGPT-3に比べ格段に進化しているため、悪用の影響は一層強まる。例えば入力された質問の前提を従来モデルは常に「正しいもの」として回答したため、大間違いも起こった。対してGPT-4は誤った前提を指摘するようになり、的外れの答えが激減した。

チャットGPTの言語能力ぶりを物語るエピソードがある。2020年、チューリングテスト(機械の能力を判定するテスト)に合格したGPT-3による投稿を掲示板サイト「Reddit(レディット)」に正体を隠して繰り返したところ、1週間余りにわたり誰にもAIの仕業と気付かれなかった。AIと分かったのは、回答の真偽の識別によってではなく、投稿の頻度と文章量の多さのせいだった。とても人間業と思えない、と判定されて正体が見破られた。

生成AIがあまりに賢い理由

生成AIの脅威は、この「人間を超える言語能力」にある。そしてそれが社会の脅威となるのは、急速に普及して標準化された社会インフラになり、人々の思考や行動が支配されるようになるリスクがあるからだ。このAIツールを使って、「悪意を持つ者」がニセ情報やニセ画像を拡散させれば、政治や世論、選挙を操作することも可能となる。
GPT-4の驚異的な性能は、そもそもどこから来てどこに向かうのか―。脅威の正体が、そのユニークな仕組みに潜む。
GPT-4で注目されたのは、人間の脳の仕組みを真似た「ニューラルネットワーク」を使った自然言語処理だ。AIに大量のネット情報を読み込ませ、ある単語の次にどの単語が来やすいかの特徴を学習させ、認識させる。

重要な要素となるのが、文章中にある単語と単語の「関係性」だ。関係性をネット上の膨大な学習データに基づき認識し、それをもとに回答する。この関係性がしっかり学習されていれば、回答の精度は上がり、情報の信頼性が高まる。関係性の認識が進んだために、いつでも「それらしい」回答がなめらかに出てくるようになった。
この仕組みは、もとはグーグルが開発した深層学習を深化させたものだ。では、どういう学習法なのか。オープンAIは、手の内の詳細は明らかにせず、判断軸や情報源はブラックボックス状態になっている。が、はっきりしているのは、GPT-4は2021年9月までの学習データをもとにし、ごく最近の情報は反映しにくいこと。その上で、対話などを通じた自己学習によって絶えず情報を更新し、賢くなっていくことだ。
この対話による自己学習こそが、生成AIの威力のカギ、とみられる。

<画像>ニューラルネットワークの構造図(3層完全接続)
Microsoftの画像を基に筆者作成

独り歩きする学習能力の脅威

入力されたデータから自己学習していく生成AIのシステム。その予想される発展プロセスを辿ると、3つの行き先が浮かび上がる。
1つは、AIが人の手を借りずに自己学習し、認識力を深めていくため、プログラムの作成者すらその学習内容と回答を完全に制御できなくなることだ。AIが次第に独り歩きするようになり、人間のコントロールから離れていく。いつしかAIを作り上げた人間が超人的能力を持つAIに支配されかねない「立場の逆転」が生まれうる。

2つ目は、情報の質の低下だ。生成AIは拠って立つ情報がネット上で集められた情報のため、ネット情報空間に飛び交うニセやバイアス情報を含む情報の集合体が学習の母体となる。結果、ネット情報空間の「レベルの低い情報」の学習を繰り返すうちに、AIが生成する文書にもそれが反映されていき、生成AIの知的レベルが低下する状況が生じる。いわば“情報の大衆化”が起こってくる。放っておくと「衆愚情報」が蔓延しかねない。人々の大多数が支持するという理由で、偏向した政治指導者の見解を生成AIが繰り返し優先して取り上げるようなリスクが高まる。ウェブにアップロードされていない最新の優れた科学理論が、無視される恐れも強まる。

3つ目は、利用者の対話情報の累積でパワーアップしていくことだ。学習に使われるデータは利用者との対話によって増え続けるため、利用者の質問ややりとりが重要な入力情報となって蓄積され、学習される。 利用者全体の対話による入力情報で自己学習が深まっていき、AI能力の進化が続く仕組みだ。学習を続け情報を獲得していくところに、生成AIの進化の絶え間ない持続性がある。

生成AIの威力と脅威の源泉は、その学習能力だ。学習し続けることで、AIは成長し続ける。一方、人間の方は困難な知的作業は手を抜き、便利なAI依存を間違いなく深めるだろう。筆者はGPTに「生成AIはなぜ学習を重ねると予想外に急進化するのか」と訊いてみた。返ってきた答えは、次の4つの要因を挙げた。

「生成AIが学習を重ねると予想外に急進化.する理由は、以下の要因によるものです:
1. 大規模なデータセットの利用:生成AIは、多くのデータから学習します。学習に使用されるデータが増えるほど、AIはより幅広い知識を獲得し、予測や生成能力が向上します。
2. 高度な学習アルゴリズムの利用:生成AIは、進化した学習アルゴリズム(例:深層学習)を使用しています。これらのアルゴリズムは、複雑なパターンや関係性を抽出し、より高度な予測や生成を可能にします。
3. ネットワークの深化:生成AIは、層の深いニューラルネットワークを使用しています。層が深いほど、AIはより抽象的な特徴を学習できます。このような深層モデルは、複雑なタスクにおいて予想外の成果を上げることがあります。
4. 進化する学習環境:生成AIは、学習環境も進化しています。新しいデータセットやアルゴリズム、コンピュータの処理能力の向上など、学習に利用できるリソースやツールが増えています。これにより、AIはより効率的かつ高度な学習を行うことができます」

オープンAIのサム・アルトマンCEOが5月、米上院議会でAIに関して表明した「最悪の不安」と規制の必要の訴えは、開発責任者の立場が疑われるほど率直だった。「最悪の不安」とは「進化するテクノロジーを通じて世界に重大な危害(significant harm)を引き起こす不安」と説明した。