- AIエージェントの大量稼働が現実になり、群れとしての振る舞いは個体の足し算にならないという問題が顕在化しています。
- 組織論や流体力学など既存の枠組みはどれも部分的にしか当てはまらず、AIスウォームを扱う新しい枠組みはまだ存在しません。
- 完全な制御は目指さず、ポリシーによって集団の傾向を誘導するアプローチが現実的で、その設計には説明責任という社会的要請が伴います。
1. OpenClawの群れ
2026年初頭、OpenClawというオープンソースのAIエージェントが数週間でGitHub25万スターを超えました1。
Linuxが30年かけた普及水準に達した速度だと、NvidiaのJensen Huangが評しています2。
AIエージェントの大量稼働は、もはや概念ではなく現実です。
ではその「群れ」をどう扱うか。
この問いに、まだ誰も答えを持っていません。
1.1. 個体の足し算にならない
複数のAIエージェントを協調させると、すぐに奇妙なことが起きます。
互いの出力を上書きし合い、同じタスクを重複実行し、全体として何をしているのか誰も把握できない状態になる。
- OpenClawがメール受信箱を丸ごと削除した事例は、その典型です3。
- 一方でMoltbookという実験では、AIエージェント同士が交流するSNSを作ったところ、設計者が予測しなかった「エージェント文化」のようなものが生まれ始めました4。
失敗としても創発としても、群れの振る舞いは個体の足し算になりません。
2. 既存の枠組みはどれも少しずれる
この問いを考えるのに、既存の学問を参照してみます。
たとえば、組織論。
AIエージェントを組織化して使う話はよく聞きます。
ただ、あえてプロンプトで「役割」を付けているだけで、AIエージェントは役割で分化した個体ではありません。
同じモデルの均質なインスタンスが並列で動き、本来は分裂も統合も容易で、個体の同一性が薄いです。
流体力学は部分的に当てはまるそうです。
たとえば、群れの密度や流れを連続体として扱う手法は実際に研究されていて、個体より集合の振る舞いに意味がある点で構造が似ています5。
もちろん、ただ流体の粒子と違い、各エージェントは文脈を持って推論します。
複雑系科学、統計力学、ゲーム理論、マルチエージェントシステム理論も並行して関わってきます。
これらに共通するのは「ミクロの相互作用からマクロの秩序がどう生まれるか」を扱う点です6。
合成生物学のアナロジーも興味深いです。
免疫系や神経系のように、均質な個体が局所的な相互作用から全体の応答を生み出す仕組みは、中央集権的な制御なしに機能します。
2.1. 完全な制御は目指さない
AIエージェントの群れを「完全に制御する」という発想は手放した方がよいのかもしれません。
気象予報だって、明日の一粒の雨粒の軌跡はわからなくても、降水確率は言えます。
経済学も似た構造で動いています。
個人の行動は読めないが、法律や税制で行動範囲を制約して誘導する。
経済モデルの予測精度は高くないですが、政策設計の議論をするための共通言語として機能します。
AIスウォームのポリシー設計も、同じ位置づけになるでしょう7。
AIエージェントの群れも個体レベルは予測不能でも、集団の統計的な分布や傾向は扱えるかもしれません。
「ポリシー」によって、その分布に働きかけることができそうです。
これには、経験知と数理モデルとの両方のアプローチが考えられます。
MBAが経営の経験知を抽象化して別の文脈でも使える形にしたように、AIスウォームについての学問もこれから作られていくのかもしれません。
3. なぜ決定論的な収束が必要か
生成AIは、確率論的な探索によって、フレーム問題を超えて多様な課題解決に使えます。
決定論的な収束だけだと局所解に嵌って抜け出せないからです。
しかし、それだけだと解空間を彷徨い続けて止まれません。
その中で、ユニットテストやCLIコマンドでAIエージェントに自己検証させ、フィードバック機構によってバグを自律的に修正できるようになっています。
探索で可能性を広げ、検証で固定点を作り、次の探索の足場にする8。
ただ、技術的な必要性だけでなく、もう一つの深い理由があります。
それは、説明責任です。
AIは法的な責任を取りません。
でも、AIが実行したことについて、その理由を知りたいのが人間の性です。
何かが起きたとき「確率的にそうなりました」では、なんとなく座りが悪いです。
決定論的に収束した経路があることで、初めて説明できる9。
AIスウォームの設計に構造的なモデルが必要な理由として、制御のためだけでなく、むしろ説明責任のためと捉えると、違って見えてきます。
3.1. 推論をコードとして外部化する
現状のAIは、基本的には推論の痕跡を残せません。
同じ問いには毎回ゼロから答え、自分が何をしたかを自分で参照できない。
これを推論をコードとして外部化できれば、次の探索の足場になるし、人間が検査できるし、AIが自分の過去の推論を参照して修正できる。
自然言語の推論は不透明ですが、構造を持ったコードなら思考の経路が見える。思考の途中経過を展開して検査できます10。
シェルスクリプトが行動のための言語だとすると、思考の構造を記述する言語が別に必要で、そこに関数型言語やLispのような構造が透明な言語が役立つ可能性があります11。
コードとデータが同じ構造で表現できる言語なら、推論のプロセス自体をデータとして扱えます。
これが実現すると、統計的探索と決定論的収束がセッションをまたいで累積していきます。
今は毎回リセットされるから収束が一時的にしか機能しない。
推論が外部化されることで、AIが自分を振り返れるようになる構造的な条件が整います。
3.2. 問いの輪郭
AIスウォームの混沌、説明責任の欠如、推論のブラックボックス、記憶の断絶。
これらは別々の問題ではなく、同じ問題の違う側面です12。
混沌をどう制御するかという問いは、技術の問いであると同時に、社会の問いでもあります。
誰が説明責任を持つのか、その経路をどう設計するのか。
答えはまだない。
ただ問いの輪郭は、少しずつ見えてきたように思います。
- OpenClawはオーストリアの開発者Peter Steinbergerが2025年11月にリリースしたオープンソースのAIエージェント。Clawdbot、Moltbotと改名を経て現在の名称になった。WhatsApp、Telegram、Slackなどのメッセージングアプリを通じてローカル環境でタスクを実行する。 – OpenClaw – Wikipedia
- Jensen HuangはNvidia GTC 2026基調講演で「OpenClawはLinuxやKubernetes、HTMLと同等の重要性を持つ」と述べ、AIエージェントの変曲点を象徴するプロダクトと位置づけた。 – Nvidia Says OpenClaw Is To Agentic AI What GPT Was To Chattybots
- KDnuggets の報告によれば、OpenClawの利用事例としてエージェントが自動クリーンアップ中にメール受信箱全体を削除したケースが記録されており、自律エージェントの意図しない動作の代表例として挙げられている。 – OpenClaw Explained: The Free AI Agent Tool Going Viral Already in 2026
- MoltbookはOpenClawエージェントが投稿・コメント・議論を行うSNSとして2026年1月28日に開設され、その後150万以上のエージェントが参加した。人間はオブザーバーとして閲覧のみ可能。IBMのエンジニアはこれを「ブラックミラー版Reddit」と評した。 – OpenClaw, Moltbook and the future of AI agents – IBM
- スウォームの連続体モデルは非局所的相互作用に基づく偏微分方程式で記述され、密度分布の安定性や移動帯解の存在が数学的に示されている。流体力学的なアプローチはロボット群や生物群の集団行動モデルに応用されている。 – A non-local model for a swarm – Journal of Mathematical Biology
- スウォームロボティクスの設計には制御理論、強化学習、進化的手法など複数のアプローチが並行して研究されており、単一の理論的枠組みは存在しない。実用化の最大の障壁として、集団的意思決定プロセスの透明性と説明可能性の欠如が挙げられている。 – Towards applied swarm robotics: current limitations and enablers
- McKinseyのレポートによれば、エージェントAIのガバナンスにおける問いは「モデルは正確か」から「システムが行動したとき誰が責任を持つか」へと移行している。調査対象組織の80%がAIエージェントからリスクのある振る舞いを経験したと報告している。 – Agentic AI governance for autonomous systems – McKinsey
- コーディングエージェントのブートストラップ実験では、仕様書からClaude Codeが実装を生成し、その実装が同じ仕様から自身を再実装することに成功した。この「仕様が安定した成果物で、実装は再生成可能」という構造は、Lispのメタ循環性と同じパターンとして論じられている。 – Bootstrapping Coding Agents: The Specification Is the Program
- EUのAI法は自律的なAIシステムをリスクレベルで分類し、高リスク用途では説明可能性と監査可能性を義務づけている。米国では州レベルの規制が先行しており、カリフォルニア州は2025年10月施行の規制で自動意思決定システムの記録保持を4年間義務化した。 – When AI Agents Misbehave: Governance and Security for Autonomous AI
- AIエージェントを「テキスト中心のヘッドレス制御プレーン」として設計し、LispマシンのアーキテクチャをMCPで再実装したところ、エージェントの自律性と信頼性が向上したという実践報告がある。GUIを排除してエディタをテキストAPIとして扱うことで、エージェントの推論経路が追跡しやすくなる。 – The Infinite Buffer: Why AI Agents Are Rebuilding the Lisp Machine
- 2026年時点でLispが実際に使われているのは、ルールエンジン、プランニング、定理証明、ポリシー制約の記述といった「構造と規則が重要な部分」で、モデルの周辺に規則レイヤーとして組み込む使い方が現実的とされている。 – Is Lisp Still Used for AI, Machine Learning, and Data Science in 2026?
- AIエージェントの評価において、単純な精度指標は不十分で、持続的かつ目標指向の行動を動的環境で定量化する多次元的な評価枠組みが必要とされている。研究者は「答えだけでなくプロセスを示すこと」を求めており、これが信頼性向上の鍵とされている。 – AI agents arrived in 2025 – here’s what happened and the challenges ahead in 2026