■Online Journal NAGURICOM
沢栄の「白昼の死角」
第255章 虚偽情報の世界(下)/アルゴリズムの怪

(2026年1月11日)

AI情報を陰で操る黒幕が、AIの司令塔・アルゴリズム(学習処理手順)だ。アルゴリズムの設計思想と設計のあり方で情報の性質と信頼性が左右される。分かりやすい例が、全体主義統制国家が主導する操作情報だろう。膨大な学習データをアルゴリズムの操作で整理・選別した上、調整・訓練を加えて「政府に不都合な情報」が出力されないようにする。国民は真実から遮断され、政府に騙され、誘導される。
アルゴリズムがどう動いて、どのように解答を導き出すのか―現時点でそのプロセスは、一切公表されないままブラックボックス化している。
しかし知見を得るにつれ、アルゴリズムの妖怪の姿が少しずつ見えてきた。

2026年は、生成AIの技術・開発投資が前年にも増して過熱しそうだ。米国を先頭に世界各国がAI革命に血道を上げる。
トランプ大統領は25年12月、「ジェネシス・ミッション(Genesis Mission)」を発令した。AIの技術支配と科学的発見、経済成長を結び付ける国家プロジェクトで、AIと最先端コンピューティング技術の活用により世界1の繁栄を目指す。エネルギー省(DOE)が主導し、米産業界が参画する。プロジェクトに加わるのは、ITテック大手のマイクロソフト、グーグル、アマゾン、オープンAI、エヌビディアに加え、アンソロピック、オラクル、インテル、IBM、ヒューレット・パッカード、デルなど。錚々たる世界的な企業が名を連らねる。

出遅れた日本も12月、「反転攻勢」を目論み、AIの開発・活用に向けた政府計画案を閣議決定した。
その「人工知能基本計画」によると、基本構想を「世界で最もAIを開発・活用しやすい国を目指す」とした。AIの社会実装が遅れた日本で強みとなる企業の累積データを生かし、AIイノベーションを推進する、という日本版AI国家戦略を打ち出した。
勝ち筋の道は、日本が現実社会で積み上げた「信頼性」という価値をAIイノベーションで再現することだと強調する。産業・医療・研究といった分野の質の高いデータを生かす。具体的には、開かれた形のAIモデル開発、フィジカルAI、AI駆動の研究開発で世界をリードし、AIフロンティアを開発する。
この「『信頼できるAI』を軸に、日本が世界各国の多様なAIイノベーションを統合していく」とした。

問題は、AIを動かすアルゴリズムがそもそも正しく機能しているか、である。これが運用実態の透明性が高く(つまり分かりやすく)、信頼に足る機能であれば問題はない。
だが、じつはアルゴリズムには真実を歪めたり、偏見を持ったりする“生来の欠陥”があることが、次第に明らかになってきた。

生成AIの活用は広がる。大規模言語モデル(LLM)を用いて即座に滑らかに応答する生成AIの言語能力に誰もが驚く。チャットGPTの利用者は週当たり世界で8億人に上る。AIの進化が急速なため、AIの能力アップに感嘆する声が世界の利用者の間から湧き上がり、勢いづく。いまや研究者や科学者のかなり多くが「AIが人間を支配する日は近い」と考えだしたようだ。現代の宗教を思わせるAIへの崇拝の念が、米国をはじめ世界に広がる。
この「AI崇拝」の是非を考察してみる必要がある。まず重要なのは、AIが持つ固有の性質(本質)を理解することだ。

AIの本質とは、「肉体を持たない」ことである。AIで動く汎用ロボットは、肉体(身体機能)を持つAIだが、研究途上にあって、まだ実用化に至っていない。
現時点でAIは、「頭脳の格別に秀でた特殊機能の持ち主」、「肉体なき特別頭脳」という存在だ。その能力も数学的論理的能力に特化して優れるが、それ以外の科学的発見、文化・芸術的創作、政治・経済的決断、組織的決定では、人間の最高レベルを超えられない。
その基本的な理由は、AIが肉体を持たないからだ。AIは生来の感覚や感情を欠き、身体の成長に伴う精神的成長がない。「体で覚えろ」という技能習得の教えがあるが、この身体的経験による成長がAIにはない。
人間は家庭や学校で育てられ教えられ、社会に出て実体験や知識を積んだり、偶然の出会いや喪失、悲喜こもごもの体験を重ねる。これが人間とAIを分ける根本的な違いだ。

アルゴリズムの弱みと欠陥

AIは無数の入力データから知識を集め、アルゴリズムによって巧みに滑らかに文書や画像を作成し、応答する。AIの弱みと限界は、収集する膨大な学習用データの選別とアルゴリズムの作り方から生じる。
AIのデータベースに入力されるのは、公開されたウェブサイト情報と使用許諾を得た(ライセンス契約のある)情報だ。その学習用データはどこから収集するのか。
チャットGPTに直接聞いてみると、広く収集されるのはウィキペディア、ニュース記事、学術論文、オープンライセンスの技術文書、政府や公共機関のサイトなど。さらに第3者から取得した使用許可付きのテキストデータやコンテンツ、公開されたブログ・ホームページも使う。

ここからAIの弱点が浮かぶ。いずれも調査締め切り日(カットオフ)までのデータが基で、その後生じた最新の出来事や知見は追加機能(ニュース情報など)なしにはデータに入らない。
チャットGPT初版は22年11月に公開されたが、データは21年1月時点のもの。したがってGPTが出す結論は、厳密には「今の知見」ではない。GPTは「それ以降の出来事や情報については基本的に認識していない」と答える。AI情報はウェブ情報に限られ「やや古め」なのだ。

さらにAIは、学習データの範囲内で解答を出すため、データの枠を超えたり、ウエブ化されていない最新のユニークな発見や理論は見逃してしまう。数多い集合知から最適解答を見つけようとするから、結果は定説とされる良識的な模範解答になりやすい。
創作活動の分野では、既存データの制約ゆえに、これを飛び越えた先駆的創造的な作品はできない。アルゴリズムの限界を超えるブレイクスルーには、創意ある人間の「霊感の一撃」が必要となる。

AIの欠陥に、「アルゴリズム・バイアス」もある。AIが設計思想と学習データの偏りにより、特定の属性(人種やジェンダー、出身国など)で差別的判断をされる現象を指す。たとえば、犯罪予測で黒人が白人より出力されやすい、あるいは女性は一般的に能力が低い、とみなされる。
アルゴリズムの設計者が、意図せずに世間一般の思いや風評から無意識のうちにこのバイアスを作ってしまうケースもある。日本を含む各国社会によくある女性蔑視の場合、世間の常識とされる集合知を映し、女性の低評価傾向が現れる。
その結果、人事採用や昇進・昇給、給与・ボーナス、職業的チャンス、住宅賃貸、ローン審査などで女性に不利な影響を及ぼす。
AIがSNSに無数のフェイク情報をもたらし、多くのユーザーがウソを真実と信じ込んでしまう。その中には「(気候変動問題は)史上最大の詐欺」、「オバマはケニヤ(アフリカ)の生まれ」という、まさかのトランプ発言も含まれる。
広がる一方のAI崇拝が、虚偽情報の異次元世界をもたらした。