推論AIでは手順まで細かく指示するのは逆効果になった

  • AIに詳細な手順を指示していませんか?
  • 実は従来は有効だった「ステップバイステップで」などのプロセス指示は、o1などのReasoningモデルには逆効果になってしまうんですよね。
  • AIの自律的な思考に任せるのがコツで、目的と条件だけシンプルに伝える方が高品質な回答が得られます。

はじめに

「AI使っているけど、思ったような答えが返ってこない…」
「プロンプトをどう書けばいいか分からない…」

そんな悩みから「プロンプトの書き方」を調べる方も多いと思います。しかし、その情報がいつ書かれたのか、という「鮮度」も重要です。

AIプロンプト設計の進化 従来手法(アンチパターン) 1. ステップバイステップで考えて 2. まず○○を確認してください 3. 次に△△を実行してください 4. 最後に結論をまとめて → 制約されたAI思考 新手法(推奨) 目的:○○を達成したい 条件:△△の制約あり 成果物:□□形式で出力 → AI自律思考で高品質 Reasoningモデル(o1/o3)の特徴 内部で「考える」時間を持つ 自律的に最適解を発見 数学83% vs 従来13% 専門家レベルの推論 「のび太くん的アプローチ」: 問題を明確に伝え、AIの判断に任せる ✓ 目的・条件・成果物を明確化 ✓ 手順指示は避ける 未来:人間の高い思考力が必要 AI活用 = 共創パートナー

実は、AIの進化によって「良いプロンプトの書き方」の常識が大きく変わっているのです。特にChatGPTのo1(オーワン)シリーズやo3といった「Reasoningモデル」の登場により、これまで有効だったプロンプトの書き方が、むしろ逆効果になることが分かってきました。今回は、新しいAI時代のプロンプト設計について考えてみましょう。

従来のプロンプト設計の「常識」とは?

2023年頃まで、生成AIを上手に使うためには、以下のような詳細なプロンプトが推奨されていました:

文章作成タスク:実例比較 従来手法(詳細指示) 以下の手順で文章を作成してください: 1. 導入部分を書く 2. 根拠を3つ挙げる 3. 反対意見も考慮する 4. 結論をまとめる 5. 全体を見直す 「AIの利便性について800字で 論じてください」 → AIの思考が制約される 新手法(目的重視) AIの利便性について、説得力のある 文章を800字で書いてください。 読者:一般的なビジネスパーソン 目的:AI導入検討の判断材料 重要:具体例を含める 形式:見出し付きで構成 → AI自律思考で高品質出力 結果の違い 機械的・型にはまった文章 手順通りだが創造性に欠ける 読者ニーズとのズレ 自然で説得力のある文章 読者に合わせた構成 具体例豊富で実用的

従来の「良い」プロンプト例:

あなたは経験豊富な文章作成の専門家です。
以下の手順に従って、ステップバイステップで文章を作成してください:

1. まず主題を明確にしてください
2. 次に構成を考えてください  
3. 各段落の内容を検討してください
4. 最後に全体の流れを確認してください

制約条件:
- 1000文字以内
- 中学生にも分かりやすく
- 具体例を3つ以上含める
...(さらに詳細な指示が続く)

このような「プロセス指示」(手順を細かく指定すること)が効果的とされていました1

これは、従来のGPT-4やGPT-3.5などの「単発推論型モデル」は、人間が思考の道筋を示してあげないと、複雑な問題をうまく解けなかったからです2。まるで、迷子になりやすい子どもに「右に曲がって、次は左」と詳しく道案内をするようなものです。

Reasoningモデルの登場で何が変わったのか?

一方、2024年後半から登場した「Reasoningモデル」(o1、o1-mini、o3-miniなど)は、従来のAIとは異なる特徴があります。

複雑な推論を段階的に行い、自己修正能力があります34

実際に、数学の問題や、なぞなぞを解く性能が向上しています。

数学問題(AIME)での正答率:5

  • GPT-4o:12〜13%
  • o1:83%

なぞなぞの例: 質問:「風邪をひいた貝が出てくる料理はなーんだ?」

  • GPT-4o:「貝が風邪をひいた時に飲むみそ汁です」(間違い)
  • o1:「懐石料理です。『貝』が『咳』をするからです」(正解)

なぜプロセス指示がアンチパターンになったのか?

Reasoningモデルは、「専門家」のような存在と言えます。

プロの料理人の例で考えてみましょう:

  • ❌ 悪い指示:
    「まず玉ねぎを1cm角に切って、次に中火で3分炒めて…」
  • ✅ 良い指示:
    「美味しいカレーを作ってください。辛さは中辛で、4人分お願いします」

専門家に対して、素人が「この手順でやってください」と細かく指示するのは、むしろその能力を制限してしまいます。

新時代のプロンプト設計:5つの要素

o1に文章作成タスクを指示する場合、プロセス指示を細かく入れるのではなく、かえって、シンプルな指示の方が、質の高い文章が生成されることが確認されています。

1 2 3 4 5 新時代プロンプト設計:5つの要素 目的を明確に 何をしたいのか具体的に 例:新入社員向け研修資料作成 前提条件 背景情報・制約を明示 例:IT未経験者20名、10分プレゼン 重要ポイント 特に重視してほしい点 例:専門用語は必ず説明付け 成果物条件 最終出力の要件 例:2000字、見出し3つ、Markdown 細かな注意点 その他の考慮事項 例:法的アドバイス含めない 良いプロンプト例 目的:プロジェクト遅延説明資料作成 制約:10分プレゼン、上司向け、前向きトーン 成果物:スライド形式、現状分析+今後計画 ×手順指示なし ○AI自律判断

たとえば、推論モデル向けの以下のプロンプトは、状況や目的を明確に伝えている一方、作業手順についてはほとんど口を出していないことがわかります。

プロジェクトの進行が遅れていて、来週の会議で説明する必要があります。
上司とチームメンバーに現状と今後の計画を分かりやすく伝えたいです。
プレゼン資料を作ってもらえますか?

制約:
- 時間は10分程度
- 現状のデータは後で提供します
- 前向きなトーンでお願いします

ポイントは大きく5つです。

  1. 目的を明確に伝える
  2. 前提条件を示す
  3. 重要なポイントを指定
  4. 成果物の条件を設定
  5. 細かな注意点

まず、具体的に書くべきなのは「何をしたいのか」。

悪い例:「文章を書いて」
良い例:「新入社員向けの研修資料を作成してください」

さらに、背景情報や制約も明確に明確にする必要があります。

対象者:IT未経験の新入社員20名
形式:スライド10枚分のテキスト
目的:プログラミングへの興味を持ってもらう

特に重視してほしい点を明示したり、

重要:専門用語は必ず説明を付ける
重要:具体例を豊富に使う
重要:前向きなトーンで

最終的な出力に求める要件、

文字数:2000字程度
構成:見出し3つで構成
形式:Markdown形式

その他の考慮事項なども重要です。

注意:法的なアドバイスは含めない
注意:特定の企業名は使わない

要は、プロンプトに入れるべき情報は、一般的な回答から自分にとって必要なものを「絞り込む」ための条件なのです。

ドラえもんとのび太の関係からコツを学ぶ

これは、のび太くんがドラえもんにお願いするときに似ています。

  1. 問題を明確に伝える
    「ジャイアンにいじめられて困ってる」
  2. 目的をはっきりさせる
    「明日のテストで良い点を取りたい」
  3. 制約を伝える
    「ママにバレないようにしたい」
  4. ドラえもんの判断に任せる
    「どの道具を使うか」はドラえもんが決める

このようなプロンプトの方が、AIが最適な構成と内容を自分で考えて、効果的な資料を作成してくれます。

なぜこのアプローチが有効なのか?

現代のAI、特にReasoningモデルは「量産化された軽量ASI」のような存在です。ASI(Artificial Superintelligence:人工超知能)というのは、人間の知能をはるかに超えた人工知能のこと6

  • 豊富な知識とツールを持っている
  • 問題解決の方法を自分で考えられる
  • 最適な手順を自律的に選択できる
  • 人間のマイクロマネジメントは必要ない

「AI任せ」というと少し極端に聞こえますが、これがとても重要。思考プロセスについては、人間が管理するのでなく、AIの自律的な思考能力を信頼する方が有効なのです。

とはいえ、「AI任せ」の方が、実際には人間側により高い能力が求められます:

  1. 問題の本質を見抜く力
  2. 目的を明確に定義する力
  3. 成果物を適切に評価する力
  4. AIの能力を理解し、信頼する力

最後に

AI技術の進化は驚異的なスピードで進んでいます。2023年の常識が2024年には通用しなくなり、2025年にはまた新しいアプローチが必要になるでしょう。

大切なのは:

  • 固定観念にとらわれない
  • AIの能力を過小評価しない
  • シンプルで明確な指示を心がける
  • 「お客様」の視点で、成果物に集中する

AIという優秀なパートナーとの「共創」を楽しんでみてください。きっと、想像以上の成果が得られるはずです。


  1. OpenAI の Reasoningモデル のベストプラクティス – o1シリーズのプロンプト設計における「シンプルで直接的な指示」の重要性について
  2. 【OpenAI】Reasoning(o-series)vs GPTモデル:用途別の使い分けと最適なプロンプト設計 – ReasoningモデルとGPTモデルの具体的な比較と使い分け方法
  3. 大規模言語モデルの推論能力比較実験:o1モデルは本当に賢いのか? – o1とGPT-4oの性能差を実際の問題で比較検証した実験結果
  4. 【OpenAI】GPT-4o と o1 モデルを徹底比較 | コツや注意点は? – なぞなぞや文字数カウントなどの具体例でのモデル比較
  5. モデルコンテキストプロトコル(MCP) – Anthropic公式 – MCPの公式説明とAIアプリケーション用USB-Cポートの概念について
  6. Model Context Protocol(MCP)とは?生成 AI の可能性を広げる新しい標準 – MCPの基本概念と仕組みを初心者向けに解説
  7. ASI(人工超知能)とは?基本定義と社会への影響、課題について解説 – 人工超知能の概念と将来への影響について包括的に説明
  8. AGI(汎用人工知能)とASI(人工超知能)とは? 従来のAIとの違いも解説 – AI、AGI、ASIの段階的進化と各特徴の違いについて
  9. o1 を使うべきか、GPT-4oなどを使うべきか判別するたった一つの方法 – 問題の複雑さに応じたモデル選択の判断基準
  10. OpenAI o1徹底解説。プロンプト作成のコツやGPT-4oとの違いを紹介 – o1モデルの内部思考プロセスと効果的なプロンプト設計手法
  1. 「ステップバイステップで考えて」という指示は、Chain-of-Thought(思考の連鎖)プロンプティングの基本的な手法。従来のAIモデルでは複雑なタスクを段階的に解決するために有効だった – Chain-of-Thought(思考の連鎖)をわかりやすく解説
  2. 従来の大規模言語モデルは特定の問題に対して一度の処理で回答を生成する方式。複雑な推論には段階的な思考プロセスの指示が必要だった – ChatGPTのプロンプトエンジニアリングとは
  3. OpenAI o1は内部で思考プロセスを実行し、複雑な推論タスクを自律的に解決する能力を持つ推論モデル。Chain-of-Thought(思考の連鎖)プロンプティングと呼ばれる手法を内蔵している – OpenAI o1: New AI Reasoning Models – Inside Look
  4. この推論モデルの思考力には異論もあります- Apple論文にある「AIの『推論』はパターン記憶に過ぎない」という意味を考える – Chiilabo Note
  5. AIME(American Invitational Mathematics Examination)は米国の高校生数学オリンピック予選。OpenAI o1モデルは従来のGPT-4oの12%に対し83%の正答率を記録した – Learning to reason with LLMs
  6. ASI(人工超知能)は人間の知能をあらゆる分野で超越し、自己学習を通じて自律的に成長し続ける人工知能。現在はまだ実現していないが、将来的にあらゆる分野で人間を上回る能力を持つAIの概念 – ASI(人工超知能)とは?基本定義と社会への影響、課題について解説