AIは
「覚える」けれど「学ばない」
(コンテクス
トとニューラル・ネットワーク)

ChatGPTのような生成AIを使っていると、「AIは、会話の内容をどのように「学習」しているのだろう?」という疑問に思います。

人間は話をしたり、新しい情報を聞いたりすると、それがそのまま記憶として残り、次の判断や行動に自然と影響します。
しかし、AIはそうではありません。
AIの「記憶」と「学習」の間には、大きな隔たりがあるのです。

関連記事

1. 会話をしてもAIは成長しない?

「会話の内容がAIの学習に使われているのか」ということを考えるシンプルな事実は、別のチャットを開くとすっかり忘れている、ということです。

AIは「覚える」けれど「学ばない」 覚える 一時的な記憶 学ばない × 知識や能力は向上しない 会話内容はコンテクストに一時保存 ニューラルネットの重みは変化しない

AIはそのセッション内では前後の文脈を覚えているように見えますが、時間をおいて聞いてみるとすっかり忘れています。
これは、人間のように話した内容がすぐAIの知識になるわけではないことがわかります。

つまり、会話の内容がAIの中の「神経回路」に組み込まれるわけではなく、一時的に“テーブルの上に置かれている”だけなのです。

1.1. 2階建ての仕組み

AIの記憶は、単純化すると2階建ての構造になっていると言えます。

処理するのはニューラルネットワーク 変換フロー テキスト トークン化 ベクトル 処理 演算 デコード テキスト 内部表現の違い 項目 ニューラルネット コンテクスト 固定性 固定 動的 役割 変換ルール 入力データ
  • 1階が「ニューラルネット層」
    ─ AIの知識と経験が詰まった家の構造部分。
  • 2階が「コンテクスト層」
    ─ いま話している内容をテーブルの上に並べて考える場所。

AIは2階で話題を扱っていても、1階の構造をいじることはしません1
人間は話すたびに脳の回路が少しずつ変わりますが、AIはそうならないのです。

2. ニューラルネットという「脳の構造」

AIの“知識”を支えているのは「ニューラルネットワーク」と呼ばれる仕組みです。

これは、膨大な文章やデータをもとに、モデル全体の重み(パラメータ)を調整して作られた巨大な脳のようなものです。
この重みの更新こそがAIにとっての「学習」です2

しかし、このモデル調整は、日常のチャット中には一切行われません。

つまり、AIにとって“学ぶ”というのは、開発段階で行われる大規模なトレーニングのことです。

3. コンテクストという「短期記憶」

ユーザーとの会話は、その完成したモデルを使って考える“推論”のプロセスにすぎません。

学習と推論の違い 項目 学習 推論 タイミング 開発段階 会話中 目的 重みの更新 答えの生成 重み変化 あり(成長) なし(固定) データ規模 膨大 会話のみ

私たちがいくら話しかけても、AIの脳の配線そのものが変わることはないのです。
これは、入力に対して出力するだけで、内部システムが変わらないことを言っています。

しかし、AIとの会話において一時的に情報を「記憶」させることはできます。
そうでなければ会話が成り立たないからです。

AIがその場で会話を理解できるのは、「コンテクストウインドウ」と呼ばれる仕組みのおかげです。
これは、チャット中のやり取りをテキストとして一時的に保持しておく領域です3
いま話している内容だけを参照して答えを生成しますが、セッションが終わればその記憶は消えます。

また、コンテクストには容量があり、いっぱいになって、古い部分から切り捨てられていきます。
実際、ちょっと長く会話を続けていると、最初の方の話題のことをAIが見落としてしまうことが少なくありません。

3.1. ユーザーごとの「メモリ機能」は学習ではない

それでも最近は、ユーザーごとの「メモリ機能」も導入されていて、AIが過去の会話内容を記録できるようになりました。

でもそれもあくまで“記録”であって、“学習”ではありません4

メモリ機能の本質 過去の記録 データベース 読み込み AI 毎回参照 記録 ≠ 学習 モデル自体は変化していない

会話セッションを開始するときに、事前に毎回 「メモ」を読み込んでいるだけで、AIモデルそのものに情報が組み込まれたわけではないのです。
メモを消してしまえば、元通りにすっかり忘れてしまいます。

また、「メモ」は、そこまで詳細にはできません。
そうすると、コンテクストウィンドウの容量を占めてしまって、会話内容を記憶できなくなってしまうからです。

  1. この「構造(重み)をいじる」こと=モデルのファインチューニング(再訓練)を指し、多くの場合これはオフラインで行われ、通常のユーザーとの対話セッションでは発生しないという整理があります。 – Fine-tuning large language models (LLMs) in 2025
  2. モデルの推論(inference)段階では、すでに訓練済みの重みを用いており、推論時には通常この重み/パラメータは更新されないと明記された論文があります。 – FINE-TUNING AND INFERENCE OF LARGE LANGUAGE …
  3. “コンテクストウインドウ(context window)”は、大規模言語モデルが入力を処理する際に参照する短期的テキスト領域であり、モデルの重み(パラメータ)はこの参照処理中に変更されないという研究があります。 – Exploring Context Window of Large Language Models via Positional …
  4. 「記録=データベースに保存された会話履歴、学習=モデル重みの更新」という区別が、実際に「リアルタイム更新されないLLMの長期メモリ機構」に関する技術論文でも言及されています。 – Why LLMs struggle with real-time updates