40年前のAIコンピューター「LISPマシン」を振り返る(ルールベース)

  • 1980年代にもAIブームがあって、当時は「LISPマシン」という数十万ドルのAI専用コンピューターが売れていました。
  • でも、すべての知識をルールで記述しようという試みは、途中で挫折。
  • 現在の生成AIは自然言語から学習できるのが決定的な違いです。
LISPマシンから現代AIへ:設計 vs 創発 1980年代のAI LISPマシン • 専用ハードウェア • 10-14万ドル • ルールベース • 明示的記号操作 2020年代のAI LLM • 汎用ソフトウェア • クラウド利用 • 統計学習 • 自然言語処理 LISPマシン失敗要因 • 知識獲得の困難 • 高価な専用機 • プログラマー不足 • Unixワークステーション台頭 LLM成功要因 • 大量データ学習 • 自然言語インターフェース • 汎用性 • 創発的能力 設計された完璧なシステムより、自然に創発したシステムが実用的

1980年代にも「AIブーム」があった

今から40年前の1980年代、現在とは全く異なるAIブームが存在していました。

1980年代にも「AIブーム」があった 1980年代 エキスパートシステムが注目・政府が巨額投資・AI企業が続々上場 LISPマシン 専用機 AI専用コンピューター 価格:10-14万ドル 製造:Symbolics・LMI 言語:LISP専用 主要企業 Symbolics LMI MIT 売上:数千万ドル 株価:最大3倍上昇 1990年代初頭に全て倒産 「AIの冬」到来

当時のAIは「エキスパートシステム」と呼ばれる、専門家の知識・判断を模倣するシステムが中心でした。代表的なエキスパートシステムにMYCINという医療診断システムがありました1。そして、そのようなAIを動かすための専用コンピューター「LISPマシン」が数十万ドルで販売されていたのです。

LISPマシンは、現在のChatGPTのような生成AIとは根本的に異なるアプローチでした。この違いの歴史を辿ると、AIに対する考え方そのものの変化が見えてきます。

AIは「論理的思考」をコンピューターで再現するもの

AIは「論理的思考」をコンピューターで再現するもの シンボリックAI(記号AI) 人間の思考 = 記号操作として捉える 人間の思考 症状→診断 ルール化 IF-THEN文 プログラム化 LISP言語 LISP言語の特徴 • 一貫したS式構文 • (関数 引数1 引数2) • メタプログラミング可能 エキスパートシステム • 専門家の知識を蓄積 • ルールベース推論 • PROSPECTOR(地質探査)

「人工知能の建国会議」(1956年)

人工知能(Artificial Intelligence)」という用語は、1956年の夏にダートマス大学で開催された会議2で初めて定義されました。会議の主催者であるジョン・マッカーシーは、「人間の知能をコンピューターで真似できる」いう前提に基づいた、機械による知能の実現を目指す研究分野として「人工知能」を位置づけました。

We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.

1956年夏、ニューハンプシャー州ハノーバーのダートマス大学で2ヶ月間、10人による人工知能の研究を行うことを提案します。この研究は、学習のあらゆる側面または知能の他の特徴が、原則として機械がそれを模倣できるほど正確に記述できるという推測を基本として進められます。

A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955.

LISP言語とメタプログラミング

この思想を実現するために開発されたのがLISP(List Processing)というプログラミング言語でした。1958年にジョン・マッカーシーによって作られたLISPは、現在でも使われている古いプログラミング言語の一つです。

LISPの特徴は驚くほど原理主義的な構文にあります。すべてが括弧で囲まれた形式で表現されます。

(DEFINE ((FACTORIAL (LAMBDA (N)
  (COND ((ZEROP N) 1)
        (T (TIMES N (FACTORIAL (SUB1 N))))))))
Code language: Lisp (lisp)

これは、階乗を計算する関数です。同時期の科学計算用のプログラミング言語FORTRANでは、

      FUNCTION IFACT(N)
      INTEGER IFACT, N, I
      IFACT = 1
      DO 10 I = 1, N
         IFACT = IFACT * I
   10 CONTINUE
      RETURN
      ENDCode language: Fortran (fortran)

LISPが一貫して括弧によって構造を記述した狙いの一つは、機械的にプログラムの構造を処理しやすくすることでした。つまり、AI学習をプログラムが自分でプログラムを改良することと考え、そのためのメタプログラミング言語としてLISPは考案されたのです。

ルールベースの知識表現

エキスパートシステムコードは、大まかに簡略化すれば、以下のような形で動作します。

まず、「AならばB」という前提と結論を結ぶ「ルール」をプログラムしておきます。

;; 医療診断システム風
(defrule flu-diagnosis
  (and (symptom fever)
       (symptom cough)
       (not (symptom rash)))
  =>
  (conclude (disease flu) (certainty 0.8)))Code language: PHP (php)

このようなシステムに事実を入力し、推論を実行すると結論が返ってきます。

;; 事実の蓄積
(assert-fact '(patient-age 25))
(assert-fact '(symptom fever))
(assert-fact '(symptom cough))

;; ルール適用
(fire-rules)
; => (disease flu 0.8)Code language: PHP (php)

実際には、もっと複雑でたくさんの判断ルールと、判断材料を用意して、結果を得ます。ルールを増やすほど「賢くなる」と期待されたのです。

LISPマシンでの「プログラム自身が学習する」メタプログラミングのイメージ例:

;; 失敗した診断から新ルールを学習
(defun learn-from-failure (symptoms actual-disease predicted-disease)
  (when (not (eq actual-disease predicted-disease))
    ;; 新しいルールを動的生成
    (let ((new-rule `(defrule ,(gensym "learned-rule-")
                       (and ,@(mapcar (lambda (s) `(symptom ,s)) symptoms))
                       =>
                       (conclude (disease ,actual-disease) (certainty 0.7)))))
      ;; ルールベースに追加
      (eval new-rule)
      (format t "新ルール学習: ~A~%" new-rule))))

;; 使用例
(learn-from-failure '(fever headache nausea) 'meningitis 'flu)
; => 新しいdefruleが動的に生成されるCode language: PHP (php)

知識の矛盾を自動的に検出する仕組み

;; 矛盾検出と修正
(defun detect-conflicts ()
  (dolist (rule *rule-base*)
    (when (contradicts-p rule (other-rules))
      ;; 矛盾するルールを自動修正
      (modify-rule rule (resolve-conflict rule)))))

ただし、LISPで書かれた学習処理は計算コストが高く、当時のコンピューターで動かすには問題がありました。メモリを大量に消費し、処理速度も遅かったのです。AI研究者は長時間の計算待ちに悩まされていました。

LISPマシンという専用コンピューターの登場

この問題を解決するため、1973年にMITのリチャード・グリーンブラットがLISPマシンプロジェクトを開始しました。LISP専用に設計されたコンピューターを作ろうという計画です。

最初に開発されたCONSマシンは、LISPの処理に特化した様々な工夫が施されていました。たとえば、タグ付きアーキテクチャという仕組みで、データの種類の判定を効率化しました3

また、オペレーティングシステム(OS)もすべてLISPで書かれ、マウスで操作できるグラフィカルインターフェース4も搭載していました。LISPマシンの特徴的な装備として、Space Cadetキーボードという特殊なキーボードがありました5

さらに、1977年に改良版のCADR6マシンが完成すると、MIT以外からも注文が殺到しました。1台約5万ドル(現在の価値で約30万ドル)という高価格にも関わらず、35台が製造されました。

LISPマシンのビジネス展開

VS 二つの会社への分裂 理念の違いが生んだ分裂 1979年 商業化の方針で対立 Symbolics社 ラッセル・ノフツカー 本格企業 • VC資金調達 • 営業・経営陣 • 専門的組織 結果:チーム大部分が移籍 製品:LM-2(1981年) LMI社 リチャード・グリーンブラット ハッカー • 自己資金 • ハッカー文化 • 技術者主導 結果:少数で開始 製品:LMI-CADR(1980年) 両社とも似た製品で激しい競争開始

この成功を受けて、1979年に商業化の議論が始まりますが、ここで大きな意見対立があり、二つの会社が設立されました。

ノフツカーのSymbolics社と、グリーンブラットのLMI(LISP Machines Inc)社です。

  • 元MIT研究所長のラッセル・ノフツカーは本格的なビジネス展開を主張しました。営業部門や経営陣を置き、ベンチャーキャピタルから資金調達する方針でした。チームの大部分はSymbolics社に移りました。
  • 一方、グリーンブラットは研究者主導の小さな会社を望みました。資金調達に頼らず、技術者が自由に開発できる環境を理想としていました。

さらに巨大企業テキサス・インスツルメンツ(TI)も参入します。LMI社に投資した後、独自のTI Explorerを発売。価格競争を仕掛けてきました。

エキスパートシステムという夢と限界

AIブームの最盛期 政府資金の大量投入 DARPA:1983-1993年で10億ドル以上をAI研究に投資 Symbolics社の成功 1985年 売上6900万$ 市場シェア 64% 株価 3倍上昇 1986年:売上1億1400万ドル 利益:1100万ドル 市場全体の成長 AI市場:6400万ドル(1984年) 予測:年50%成長 • AI企業が続々上場 • 大企業がAI部門設立 1986年が市場のピーク 「AIの標準を確立した」と経営陣が発言

1980年代初頭、「エキスパートシステム」というAIシステムが大きな注目を集めました。これは人間の専門家の知識をコンピューターに蓄積し、専門的な判断を自動化するシステムです。

当時のAI研究者は、人間の思考を「記号操作」として捉えていました。
たとえば、医師が症状から病気を診断する過程を例に取ると、頭の中で「熱がある」「咳が出る」「のどが痛い」という情報を組み合わせて「風邪」という結論を導き出します。この思考過程を「もし熱があり、咳が出て、のどが痛いなら、風邪である」というルールとして明文化できると考えました。これが「シンボリックAI」の基本思想です。

代表例が、PROSPECTORという地質探査システムでした。これは地質学者の知識をルール化したエキスパートシステムで、鉱物の埋蔵地点を予測しました。実際にワシントン州で1億ドルの価値があるとされたモリブデン鉱床の発見に成功し7、大きな話題となったのです。

1980年代のAIブームと政府資金の大量投入

そして、1980年代中頃、アメリカ政府がAI研究に巨額の投資を行いました。

$ 1980年代AIブーム:政府資金競争 日本 第五世代コンピューター計画 1981-1992年 総額540億円 PSI/PIM 専用OS・プログラミング言語 VS アメリカ DARPA戦略計算プログラム 1983-1993年 10億ドル以上 LISPマシン市場支援 企業AI導入促進 結果 日本:実用化失敗 研究用プロトタイプのみ Symbolics社 売上6900万ドル 市場シェア64% 株価 6→16ドル 政府資金がAI市場を形成したが、実用化の成否が明暗を分けた

DARPA(アメリカ国防高等研究計画局)は戦略計算プログラムを立ち上げ、1984年から1993年の間に10億ドル以上をAI研究に投じました。この資金がLISPマシン市場を支えました。ちなみに、この背景には日本の通商産業省が主導するAI開発を目的とした「第五世代コンピューター計画8」への対抗意識もありました。

また、大手企業もAI導入に積極的でした。専門家不足を解消し、人間の専門家を代替できるシステムへの期待が高まっていました。Symbolics社は1985年に売上6900万ドルを記録し、株価も上場時の6ドルから16ドルまで上昇しました。

LISPマシンの総生産台数は、1988年時点で約7,000台で、半導体設計の自動化や数学計算ソフトウェアMacsymaの商用化など、AI以外の分野でも活用されました。Symbolics社のLISPマシンは、1980年代のコンピューターグラフィックス業界でも使用されており、ピクサーも一部では活用していました9

エキスパートシステムの限界は暗黙知と柔軟性

しかし、エキスパートシステムの開発を進めていくと、思ったような成果が上がらないことが見えてきました。

エキスパートシステムの限界 知識獲得のボトルネック 人間の専門知識をルールに変換することの困難さ 暗黙知 専門家が無意識に 行う判断の明文化困難 脆弱性 想定外の状況で システム全体が破綻 人材不足 LISPプログラマー の絶対的不足 企業導入の現実 高価なLISPマシンを購入しても使いこなせる人材がいない

最大の問題は、人間の知識をルール化する困難さでした。専門家が行っている判断の多くは直感的で、明文化が困難です。例えば、熟練医師が患者を診る際の「何となく重篤に見える」という判断を、コンピューターが理解できるルールに変換するのは極めて困難でした。これを「暗黙知」と呼びます。このような暗黙知をAIに取り入れることができなかったのです。

さらに、明文化されたルールは想定外の状況に対応できませんでした。少しでも前提条件が変わると、システム全体が機能しなくなってしまうのです。人間の柔軟性には遠く及ばなかったのです。

汎用コンピューターの台頭とLISPマシンの終焉

また、LISP言語自体の普及も進みませんでした。多くの企業はC言語やFORTRANを使っており、LISPを習得した技術者は限られていました。高価なLISPマシンを購入しても、それを使いこなせる人材がいなかったのです。

汎用コンピューターの台頭 Unixワークステーションの挑戦 1980年代後半、Sun Microsystemsなどが急速に性能向上 LISPマシン 4万ドル VS Unix WS 1万4千ドル 1/3の価格 決定的な違い 豊富なソフトウェア 多様な開発ツール・アプリ Sun Microsystems 1986年売上2億1千万ドル AI関連:6%(年50%成長)

Unixワークステーション

1980年代後半になると、Sun MicrosystemsやApollo Computerなどが製造するUnixワークステーションが急速に性能を向上させました。これらの汎用機は価格が4分の1程度でありながら、LISPマシンに迫る性能を実現しました。

Unixワークステーションの真の強みは豊富なソフトウェアでした。様々な開発ツールやアプリケーションが利用でき、LISPマシンの閉鎖的な環境とは対照的でした。

「AIの冬」の到来

この差は決定的でした。LISPマシンがどれほど性能が優れていても、エコシステム(周辺環境)が貧弱では商品として成り立ちません。Symbolics社の株価は最盛期の16ドルから1ドル以下まで暴落しました。高額な研究開発費と固定費が会社を圧迫していました。

LISPマシンの終焉 市場からの退場 1987年 LMI倒産 1993年 Symbolics倒産 Symbolics株価 最高値:16ドル(1985年) 最低値:1ドル未満 損失:2500万ドル(1987年) 「AIの冬」到来 政府資金削減 企業AI部門縮小 研究者離散 わずか10年でAI専用機時代終了

1987年にLMI社が倒産し、Symbolics社も1993年に破産しました。わずか10年程度でAI専用機の時代は終わりを告げたのです。

エキスパートシステムへの期待が裏切られ、AI研究全体が冷え込みました。これを「AIの冬」と呼びます。政府資金も削減され、多くのAI企業が消滅しました。

現代のLLMとの根本的違い(パターン学習)

現在のLLM(大規模言語モデル)は、1980年代とは全く異なるアプローチを取っています。人間がルールを設計するのではなく、大量のテキストデータから統計的にパターンを学習します。

現代のLLMとの根本的違い 1980年代のAI 設計された論理 • ルールベース • 明示的記号操作 • 人間が設計 • 決定論的 • LISP専用機 現代のAI 創発された知能 • 統計学習 • パターン認識 • データから学習 • 確率的 • 汎用ハードウェア データ処理方法 専門家から知識抽出 → IF-THENルール化 → プログラム化 データ処理方法 大量テキストデータ → 統計的学習 → パターン認識 設計された完璧なシステムより、自然に創発したシステムが実用的

ChatGPTは膨大な文章を読み込んで、「この文脈では次にこの単語が来る確率が高い」という予測を行います。明示的なルールは存在しません。

この学習データとして扱われたのは、自然言語でした。LISPの厳密な構文とは対照的に、LLMは曖昧で不規則な自然言語を直接処理します。興味深いのは、LLMの能力が設計者の予想を超えて「創発」していることです。生物の進化に似た現象で、大量のデータと計算により、予期しない能力が現れました。

LISPとLLMの組み合わせは可能か

現在、LLMとLISPを組み合わせる試みも行われています。LLMが自然言語を理解し、LISPで厳密な計算を行う分業です。

LISPとLLMの組み合わせは可能か 分業アプローチ 自然言語 → LISP → 実行のパイプライン LISPの優位性 構文の単純性と一貫性 LLMがパース・生成しやすい メタプログラミング機能 根本的な問題 確率的出力 vs 厳密性 括弧ズレの危険性 デバッグの困難 (+ (* 2 3) 4) → 10 が、括弧ずれで (+ (* 2 3 4)) → 24 に 構文的には正しいが意味が全く変わる 理論的には可能だが、実用性に課題

しかし、LLMの確率的な出力とLISPの厳密性には根本的な矛盾があります。LISPには冗長性がないため、LISPの括弧一つのズレによって意味が大きく変わってしまうのです。

; 正しいコード
(+ (* 2 3) 4)  ; 結果: 10

; 括弧がずれたコード(エラーにならないが意味が変わる)
(+ (* 2 3 4))  ; 結果: 24

LLMは学習データ中の言語頻度に影響されるため、使用頻度の高い言語でより良質なコードを生成する傾向があります。そのため、LISPではなく、開発者人口が多いPythonやTypeScriptのようなプログラミング言語の方がよく利用されています。人間が習得しやすい言語の方が、LLM向きなのです。

設計された論理体系から創発されたパターン認知へ

LISPマシンから生成AIに至る歴史は、AIの学習に対する根本的な考え方の変遷を物語っています。

論理体系からパターン認知へ エキスパートシステム 人間がルール設計 機械が忠実実行 大規模言語モデル(LLM) 神経回路モデル データから自然構築 LISPコード例 (if (and fever cough) (diagnosis ‘flu) (check-other-symptoms)) ; 明示的ルール ニューラルネット 暗黙的学習
  • 1980年代のアプローチは「論理体系の設計」でした。
    人間が完璧なルールを設計し、コンピューターがそれを忠実に実行する世界観です。
  • 一方、現代のLLMは神経回路をモデル化した「統計的学習によるパターン認識」です。
    ここでは厳密に処理されるコンピュータの演算は、自然法則を模倣する役割を担っています。この仮想世界の中で、大量のデータによって有機的に構築されたのがAIモデルです。

興味深いことに、論理的に設計されたシステムより、神経回路をモデル化したブラックボックスの方が実用的な結果を生み出しました。LISPマシンの興亡は、技術開発における「設計」と「創発」の根本的な違いを示しています。時として、人間が一から設計するよりも、自然を模倣した方が、より良い結果を生み出すのかもしれません。


  1. Lisp machine – Wikipedia – LISPマシンの技術的詳細と商業化の歴史
  2. Symbolics – Wikipedia – Symbolics社の製品と事業展開の全体像
  3. John McCarthy (computer scientist) – Wikipedia – LISP言語の発明者ジョン・マッカーシーの経歴と貢献
  4. Expert system – Wikipedia – エキスパートシステムの技術的概要と1980年代の応用事例
  5. PROSPECTOR computer-based expert system – SRI – 地質探査システムPROSPECTORの開発と成功事例
  6. Computer History Museum – John McCarthy – AI分野の創始者としてのマッカーシーの業績評価
  7. History of Symbolics lisp machines – Dan Luu – Symbolics社元従業員による内部視点からの歴史証言
  8. カルトAIコンピューターの繁栄と崩壊 – YouTube
  1. MYCINは感染症の診断と治療推奨を行う医療用エキスパートシステムで、1970年代に開発された – Expert system
  2. この会議は「人工知能の建国会議」とも呼ばれ、AI分野の正式な出発点となった – The Dartmouth workshop
  3. LISPは動的型付け言語のため、実行時にデータ型を識別する必要があり、タグによってこれを効率化した – Lisp machine
  4. LISPマシンは1970年代後半という早い時期からGUI環境を標準搭載していた – Space-cadet keyboard
  5. 7つのシフトキーと数千種類の文字入力が可能な特殊キーボード。MIT AI研究所の象徴的存在 – Space-cadet keyboard
  6. CADRはLISPの「cadr」関数から来た一種のダジャレです。「cadr」関数はリストの2番目の要素を返す関数で、「ケイダー」または「カダー」と発音します。
  7. PROSPECTORは地質探査において世界初の大きな成功を収めたエキスパートシステムとして知られている – PROSPECTOR computer-based expert system
  8. 1981年に日本が発表した10年間で総額540億円を投じる大規模AI研究プロジェクト。日本独自の並行論理プログラミング言語(PrologベースのESPや並行論理プログラミング言語KL1、そのためのハードウェアである PSI(個人用逐次推論マシン)やPIM(並列推論マシン)などの研究用プロトタイプと、その専用オペレーティングシステム(SIMPOS、PIMOS)が生まれたものの、実用化には至りませんでした。 – AI Hype Cycles: Lessons from the Past to Sustain Progress
  9. ピクサーはLISPマシンでこれらを活用していましたが、自社開発のハードウェアが中心でした。ピクサーの主力製品は独自の「Pixar Image Computer」で、これはLISPマシンではありませんでした。 – Pixar Image Computer – Wikipedia