GIGO IN OUT 【GIGO原則】
AIは「万能機械」じゃない
(入力の質で変わる出力品質)

AIに曖昧な質問をして「なんか微妙な回答だな」と感じたこと、ありませんか?

実はそれ、AIの性能が低いせいではないかもしれません。
入力の質が低かっただけかも。

今回は、プログラミングや情報処理の世界で長年語り継がれてきた「Garbage in, Garbage out(GIGO)」という原則を通じて、AIとの上手な付き合い方を考えてみました。

関連記事

1. 「ゴミを入れれば、ゴミが出る」――GIGO原則とは

「Garbage in, Garbage out」を直訳すると「ゴミを入れれば、ゴミが出てくる」です。
つまり、質の低い入力からは、質の低い出力しか得られないという原則を指します。

GIGO原則とは Garbage in, Garbage out ゴミを入れれば、ゴミが出てくる 低品質な入力 AI処理 低品質な出力 入力の質が出力の質を決定する

この原則はコンピュータの世界で古くから知られていましたが、AIの時代になってより重要性が増しています。

1.1. AIの「賢さ」を評価するのは実は難しい

「AというAIは賢いけど、BというAIは賢くない」といった評価をよく聞きます。
でも、GIGO原則を理解すると、この評価がいかに単純化されているかが分かります。

AIの性能を測るベンチマークテストというものがあります。
しかし、テストで高得点を取るAIが、実際に使いやすいとは限りません

AIの「賢さ」を評価するのは難しい 評価に必要な4つの要素 1 どのモデルを 2 どんなタスクで 3 どんな入力で 4 何を基準に これら全てが揃って初めて 「賢い」「賢くない」と判断できる

AIの性能を評価するには、以下の要素すべてを揃える必要があります。

  • どのモデルを(GPT-4? Claude? Gemini?)
  • どんなタスクで(文章生成? コード生成? 翻訳?)
  • どんな入力で(曖昧な質問? 詳細な指示?)
  • 何を基準に(正確性? 創造性? 速度?)

これらが揃って初めて、「賢い」「賢くない」と判断できます。

道具としてのAIを評価するなら、「道具の性能」ではなく「道具と使い手の相性」を見る必要があります。

2. 曖昧な質問をすると、曖昧な答えしか返ってこない

例えば、こんな質問をAIにしたとします。

「いい感じのレシピ教えて」

AIは困ってしまいます。
「いい感じ」とは何でしょうか?
簡単な料理? おしゃれな料理? 健康的な料理? 何人分? 何分で作れる? どんな食材がある?

情報が足りないので、AIは当たり障りのない一般的なレシピを返すしかありません。

2.1. 具体的な質問をすると、実用的な答えが返ってくる

では、質問を変えてみます。

「一人暮らしの大学生です。30分以内に作れて、材料費500円以内、タンパク質が豊富な夕食のレシピを教えてください。冷蔵庫には卵、豆腐、鶏むね肉があります」

これなら、AIは具体的で実用的な回答を返せます。
5W1H(誰が、いつ、どこで、何を、なぜ、どのように)の要素が含まれているからです。

同じAIに聞いているのに、出力の質が全く違う。
これがGIGO原則の本質です。

2.2. 「調べて」と言わないと、古い知識で答えることがある

AIとの対話で、もう一つ気づいたことがあります。

たとえば、AIに「ある地域の人口は?」と聞いたとき、AIは自分の知識だけで答えようとすることがありました。
しかし、AIの知識には期限があります。
新しい情報は知らないのです。

検索機能があっても使われないことがある AIの知識には 期限がある 自動判断は まだ不完全 確実な方法 「調べて」と明示する 重要な判断や最新情報では必須

もちろん、「ウェブで調べて教えて」と明示すると、ちゃんと検索して最新情報を返してくれました。

理想を言えば、AIが「これは最新情報が必要だな」と自動判断してくれるべきです。
実際、最近のAIはある程度それができるようになっています。
しかし、まだ完璧ではありません。

重要な判断や最新性が求められる情報では、「調べて」と明示する方が確実です。

これもGIGO原則の一部です。
「検索してほしい」という情報を入力に含めないと、望む出力(最新情報)が得られないのですから。

2.3. AIは「計算機」ではなく「対話相手」に近い

この一連の考察を通じて、私の中でAIの捉え方が変わりました。

AIは「計算機」ではなく「対話相手」 計算機 常に同じ結果 AI 入力次第で変わる 同じモデルでも 出力の質は10倍変わる Google検索や人への質問と同じ原理

電卓に「2+2」と入力すれば、誰がやっても「4」と返ってきます。
これが計算機です。

でもAIは違います。
同じモデルでも、入力次第で出力の質が大きく変わります

3. 現状では知識の有無で成果に大きな差が出る

ここまで読んで、「結局、AIを使いこなすにはコツを知らないとダメなのか」と感じた方もいるでしょう。

残念ながら、現状ではAIの使い方を知っているかどうかで、得られる成果に大きな差が出ます。

適切な質問ができる人は驚くほど有益な情報を引き出せますが、使い方を知らない人は期待外れの結果に終わる。
これは新しい形のデジタルデバイド(情報格差)です。

これはGoogle検索と似ています。
「おいしい店」で検索するのと「渋谷 イタリアン ランチ 1000円以内 静か」で検索するのでは、結果の質が全く違いますよね。

3.1. 実は、対人コミュニケーションも同じ

ただし、これは何も特別なスキルではありません。
考えてみれば、人に何かを頼むときと同じです。

実は、対人コミュニケーションも同じ 「察する」と「聞く」のバランス 人に頼む時 「あの件、よろしく」 → 詳細を聞き返す AIに頼む時 「いい感じに」 → 条件を確認 完璧なコミュニケーションは存在しない 齟齬を早く発見し、修正コストを下げることが重要

上司に「あの件、よろしく」とだけ言われても困りますよね。
「どの件ですか? 期限は? 優先度は?」と聞き返す必要があります。

AIリテラシーも、結局は対人コミュニケーションスキルの延長線上にあります。
AIだから特別に難しいわけではないのです。

3.2. 「ユーザーに良い質問を求める」

ここで一つの疑問が浮かびます。
「じゃあ、AIが最初に『もっと詳しく教えてください』って聞き返せばいいんじゃない?」

「良い質問を求める」だけでは不十分 問題1 何が良い入力か 分からない 問題2 毎回詳しく書くのは 負担が大きい 効果的なアプローチ AI側が質問しながら 必要な情報を引き出す

しかし、ここに問題があります。
多くのユーザーは、「詳しく教えてください」と言われても、「え、何を? どこまで?」となってしまう。
しかも、毎回長々と条件を書くのは面倒です。
認知的な負担が大きすぎます。
そこで、AIは「察して」回答することになります。

もちろん、すべてを言葉にしなくても通じる相手もいます。
長年の付き合いや共通の文脈があれば、「あれ、どうだった?」だけで会話が成立する。
しかし、完璧なコミュニケーションなんて、人間同士でも存在しません。

つまり、「察する部分」と「確認する部分」のバランスは、対人でもAIでも同じ課題なのです。

3.3. AI側が質問しながら引き出す設計

重要なのは齟齬をゼロにすることではなく、早く発見して修正コストを下げることです。
「あ、それじゃなくて、こういうことです」「なるほど、じゃあこうですね」というやり取りを素早くできるかどうか。

そこで、AI側が能動的に質問しながら必要な情報を引き出す対話型の設計が重要になります。

「レシピを探しているんですね。何人分ですか?」 「調理時間はどのくらいを想定していますか?」 「苦手な食材や避けたい食材はありますか?」

このように段階的に深掘りしていく方が、ユーザーの負担は軽くなります。
完璧な入力を最初から求めるのではなく、対話で補完していくアプローチです。

4. 対話で補完していく

では、私たちはどうすればいいのでしょうか?
まず、完璧な入力を最初から作ろうとしなくていいということです。

人に質問するときも、最初から完璧な聞き方をする人はいません。
「ちょっと聞きたいんだけど」から始めて、会話の中で詳細を詰めていきますよね。

AIも同じです。
最初は大まかに伝えて、AIの返答を見ながら「もっとこうしてほしい」と調整していけばいいのです。

4.1. 重要な情報は明示する

ただし、いくつか明示した方がいい情報もあります。

  • 最新性が重要なら「調べて」と言う
  • 避けてほしいことがあれば先に伝える
  • 出力の形式に希望があれば指定する

これらは、対話の中で後から修正するより、最初から伝えた方が効率的です。

4.2. 「自動装置」から「対話的ツール」への認識転換

結局、大事なのはAIを「自動で完璧な答えを出す装置」ではなく「対話しながら一緒に答えを作るツール」として捉えることです。

この認識があれば、AIが期待と違う答えを返してきても、「性能が低い」と切り捨てるのではなく、「質問の仕方を変えてみよう」と考えられます。

5. 過渡期だからこそ、本質を理解する

AIはまだ発展途上の技術です。
これから使いやすくなるでしょうし、自動判断の精度も上がるはずです。

でも、Garbage in, Garbage outという原則そのものは変わりません

なぜなら、これはAI特有の問題ではなく、コミュニケーション全般に共通する普遍的な原則だからです。

良い質問をすれば良い答えが返ってくる。
曖昧な依頼をすれば曖昧な結果になる。
これは人間同士でも、人とAIの間でも同じです。

AIは万能の魔法ではありません。
でも、適切に使えば、驚くほど強力なパートナーになります。
その鍵は、入力の質を意識すること。
シンプルですが、これがすべての始まりです。