生成AIの中の
「混沌」
(Transformer)

  • 生成AIのTransformerは、文章の続きとして来そうなトークンを確率で予測することを繰り返して出力を生成します。
  • 学習はランダムな重みから始まり、大量データを通じて予測誤差が小さくなるよう更新されていきます。
  • 内部では複数の概念が重なって表現されるため、外から見た出力が整然としていても、内部構造は人間の直感通りに整理されているとは限りません。
  • この性質から、不確かな状況でも文章を完成させようとするハルシネーションが起きやすく、完全な排除より抑制・検証の設計が現実的なアプローチです。

関連記事

1. 生成AIは論理的ではない

生成AIのTransformerは、「ルールを理解して論理的に考えている」ように見えることがあります。

生成AIの内部は混沌から秩序へとグラデーションでつながっている(drawn by ChatGPT 5.3)
生成AIの内部は混沌から秩序へとグラデーションでつながっている(drawn by ChatGPT 5.3)

しかし、一皮むけば、すぐに本来の混沌があります。

1.1. トークン予測という基本構造

生成AIの基本の仕組みは、ルールや論理とは別物です。
モデルは文章を読んで、次に来そうなトークンを確率として予測し、その確率にもとづいて出力をつないでいきます1

トークン予測という基本構造 「今日は いい 天気 ___? トークン列(入力) Transformer 次トークン確率 です 87% だ  8% ね  3% →「です」を出力 確率はsoftmax関数で正規化——高エントロピーほど出力はばらつく

この確率は単なる出現頻度の丸暗記でも、単なるランダムでもありません。
学習を通じて文脈に応じた統計的な規則性を内部に獲得するため、結果として一貫した応答が現れます2
特に、コード生成では文法や依存関係の制約が強いぶん、整合的な出力が出やすく、その性能は驚異的です。

1.2. 学習によって混沌を秩序立てている

それでは、「文脈に応じた規則性」をどのように獲得するのでしょうか。

生成AIモデルの学習の出発点では、原理的には、内部パラメータである重みはほぼランダムに初期化されています。
いわば、「赤ちゃん状態」で、まったくランダムに出力してきます。

機械学習ではつながりの「重み」を変えていく 学習前 いい 天気 です 入力層 中間層 出力層 重み≈ランダム 調整 学習後 いい 天気 です 入力層 中間層 出力層 重み=パターン化 「今日は… 「今日は… はじめはランダムな出力 学習により出力が安定していく

しかし、そこから大量のデータを使って、次トークン予測と実際との誤差が小さくなるように少しずつ確率や重み付けを調整していきます。
これにより、徐々に出力の精度が上がっていきます3
最初はノイズのような状態から始まり、学習の途中では多様なパターンが重なり合い、やがて人間が読みやすい形へ整っていきます。

2. ハルシネーションは例外ではない

興味深いのは、学習の途中では概念がごちゃごちゃに融合している状態になることです。

さまざまな言語・概念が未分化の状態のイメージ
さまざまな言語・概念が未分化の状態のイメージ

そして、生成AIは、常にこの学習の途中であることを考えると、この混沌が表面化する代表例が、「ハルシネーション」だとわかります。

ハルシネーションとは、もっともらしいが誤った内容を生成してしまう現象を指します。
事実ではない誤情報なのに細部まで細かいことから、まるで「生成AIが幻覚を見て答えているように見える」ことから、「ハルシネーション(幻覚・妄想)」と呼ばれるようになりました。

これは例外的な現象ではありません。
モデルが「確率的に続きを生成する装置」であり、不確実な状況でも文章を完成させようとする性質から、必然的に起きる現象なのです4

つまり、ハルシネーションは例外として切り離すよりも、「不確実さを抱えたままでも答えを出してしまう」という前提の上で、どう抑えるかを設計する対象としてとらえるのが、生成AIとの現実的な付き合い方です。
たとえば、抑制、検証、保留、根拠提示といった手段を組み合わせて対処することが求められます5

2.1. 内部表現の融合状態

外から見て生成AIが整然とした文章が出していたとしても、内部が「整理整頓された理解の構造」になっているとは限りません。
実は「ぐちゃぐちゃ」というのは、単なる比喩にとどまらず、研究の文脈でも近い現象が指摘されています。

内部表現の複雑さ スーパーポジション 特徴A 特徴B 特徴C 重なって 格納される ニューロン数より多くの特徴を圧縮表現 ポリセマンティシティ ニューロン N 概念① 概念② 概念③ 1つの要素が複数の意味に関わる 整然とした出力でも、内部構造は整理されていない

たとえば、内部表現がきれいに概念ごとに分離されず、限られた表現空間に多くの特徴が重なって表現されることがあります6
これは「スーパーポジション」と呼ばれる現象で、複数の特徴が重なって表現される状態を指します。

また「ポリセマンティシティ」とは、一つの内部要素が複数の意味に関わる性質のことです7

この意味で、生成AIは制御が十分に効いていない、管理可能な形に分解されていない性質を残しています。

  1. Transformerアーキテクチャは、2017年にGoogleの研究者Ashish Vaswaniらが発表した論文「Attention Is All You Need」で提案されました。それ以前の主流だったRNNと異なり、逐次処理を排除してアテンション機構のみで構成され、並列計算が可能になりました。 – Attention Is All You Need (arXiv)
  2. モデルが出力する「確率」は、最終層のロジット(各トークンへのスコア)にsoftmax関数を適用して求められます。softmaxはすべての値を0から1の範囲に変換し、合計が1になるよう正規化します。不確実性が高い状況では確率が均等に分散し(高エントロピー)、確信度が高い場合は特定トークンに集中します(低エントロピー)。 – Learn Next-Token Prediction and Probability Distributions (Codefinity)
  3. 重みのランダム初期化はニューラルネットワークが確率的勾配降下法で学習するための前提です。すべてをゼロで初期化すると各ニューロンが同じ勾配を受け取り、学習が進みません。実際にはXavier初期化やHe初期化など、活性化関数の種類に応じた手法が使われ、勾配の消失や爆発を防ぎます。 – Weight Initialization Techniques in Neural Networks (Pinecone)
  4. ハルシネーションは完全に排除することが現実的ではないという見方が研究者の間で広まっており、「誤りをゼロにする」から「不確実性を測定可能な形で管理する」へと目標が移行しています。学習と評価の設計が「わからない」より「自信ある推測」を報酬として与えがちなことも、ハルシネーションを生む構造的な要因として指摘されています。 – LLM Hallucinations in 2026 (Lakera)
  5. RAGはモデルを外部知識ソースに接続してハルシネーションを抑える手法として広く採用されています。ただしRAG単独では十分でなく、生成した各主張を検索結果と照合するスパンレベルの検証を組み合わせることが、2025年時点でのベストプラクティスとされています。 – Mitigating Hallucination in Large Language Models (arXiv)
  6. Anthropicの研究者らは2022年に「Toy Models of Superposition」を発表し、ニューラルネットワークがニューロン数より多くの特徴を表現しようとする現象を示しました。これはスーパーポジション仮説と呼ばれ、高次元空間の幾何学的性質を利用して多くの特徴を「近似的に直交する方向」として重ねて格納することを指します。 – Toy Models of Superposition (Anthropic / transformer-circuits.pub)
  7. ポリセマンティシティは、モデルが表現空間の制約から重要度の高い特徴をモノセマンティック(1対1対応)に、それ以外の特徴をポリセマンティックに表現するという研究が報告されています。スパース性が高いデータほどポリセマンティシティが生じやすい傾向が示されています。 – Polysemanticity and Capacity in Neural Networks (arXiv)