近年、ChatGPTや生成AIという言葉を目にする機会が増えています。
一方で、何ができるのか分からない、便利そうだが不安があると感じている人も少なくありません。
ここでは、専門的な知識がなくても理解できるように、ChatGPTの仕組み、できること、注意点を整理します。
1. ChatGPTとは
ChatGPTは、文章を中心に人と対話する人工知能です1。
質問に答えたり、文章を作ったり、考えを整理する補助を行います。
あらかじめ決められた答えを返すのではなく、入力された文章の流れに合う文章を新しく作る点に特徴があります。
この仕組みを持つAIは「生成AI」と呼ばれます。
生成AIは、文章や画像、音声などを新しく作り出すAIの総称です2。
1.1. もっともらしい文章を作り出す仕組み
ChatGPTの内部では、大規模言語モデルという技術が使われています。
英語ではLarge Language Modelと呼ばれ、略してLLMと表記されます。
これは非常に大量の文章データを学習し、次にどの言葉が来ると自然かを確率的に予測する仕組みです3。
曖昧な質問よりも、目的や条件、対象を具体的に書くほうが、意図に近い回答が出やすくなります。
これは、AIが文脈情報をもとに文章を生成しているためです。
入力する指示文は「プロンプト」と呼び、チャットの文脈情報を「コンテキスト」といいます4。
2. 事実としての正しさは保証しない
ChatGPTの出力は、入力の仕方によって大きく変わります。
文章のつながり方の傾向をもとに、もっともらしい文章を組み立てています。
この性質のため、ChatGPTの回答は常に正しいとは限りません。
というより、正しいとしてもたまたま正しい文章を生成しただけ、と考えた方が実態に近いです。
事実と異なる内容や、存在しない情報をもっともらしく述べることもあります。
この現象は「ハルシネーション」と呼ばれます。
ハルシネーションとは、学習データや文脈からそれらしい文章を生成した結果、誤った内容が含まれてしまうことを指します567。
特に、最新の出来事や、医療、法律、金融といった専門性の高い分野では、誤った情報を鵜呑みにすると大変89。
これらの分野では、ChatGPTの回答をそのまま利用せず、結局は専門家や一次情報を確認する必要があります。
また、質問者の意図に迎合するような傾向もあります。
質問の仕方そのものが、「誘導尋問」になってしまうのです10。
そのため、ChatGPTの回答はあくまで「参考意見」。
どんなに性能が上がっても、この前提は大事です。
ちなみに、医師や弁護士、税理士といった専門家にとっては、一般人でも生成AIから知識を得られるようになり、説明しやすくなった面と、逆に思い込みや誤解が解きにくくなった面との両方があるようです。
「AIが言っていた」とお墨付きのように言うのは控えましょう。
2.1. 本来の「生成」の用途
生成AIは、調べものの補助や相談相手としては、手軽ですが鵜呑みにはできない。
それなら、なんの役に立つの?
本来、生成AIが役立つのは、まさに「生成」です。
生成AIが、もっとも力を発揮している分野は、ソフトウェア開発と言われます1112。
これは既存の技術をもとに新しいプログラムを書いていく作業です。
新たな情報を作り出すことは、この場合「誤り」にはならないのです。
日常生活で言えば、文章の言い換え、長文の要約、考えの整理、アイデア出しなどでは使いやすい道具です。
何を書けばよいか分からない、考えがまとまらないといった状況では、対話を通じて思考を整理する助けになります。
また、頭の中にあるイメージを画像にしたり、逆に写真や音声から文字起こしをすることもできます。
情報の形を変えて作り直すのも、生成AIの得意分野です。
3. 生成AIの負の側面
ただし、プライバシーや秘密情報の扱いにも注意が必要です。
ChatGPTに入力した内容は、サービスの改善などに利用される場合があります13。
個人情報や機密情報、他人に知られてはいけない内容を入力しないことが、基本的な使い方。
生成AIサービスは、あなただけのものではないからです。
また、著作権や肖像権の尊重も大事です。
面白半分で勝手に他人の写真を加工するようなものも散見されますが、他人に迷惑をかけてしまったら責任を取るのはAIではなく利用者の側です。
注意が必要なのは、生成AIを使っているときだけではありません。
たとえば、SNSなどで見つけた情報も、それがAI生成によるフェイク(贋物)かもしれない、という可能性を常に考える必要が生まれました14。
かんたんに画像や動画が生成できるようになり、誇張や捏造した情報も出回りやすくなったのです。
生成AIの登場は、自分が生成AIを使う・使わないにかかわらず、社会と情報の関わりを大きく変えました。
- ChatGPTは2022年11月にOpenAI社がリリースした対話型AIサービスで、わずか2ヶ月で1億人のユーザーを獲得しました。現在は有料版のChatGPT PlusやTeam、Enterpriseプランも提供されています。 – ChatGPTとは?日本語対応の大規模言語モデルでできること、活用事例を解説
- ChatGPT自体はテキスト生成AIですが、2023年10月以降、DALL-E 3との統合により画像生成機能が追加されました。2025年3月には最新の「GPT-4o Image Generation」モデルが統合され、テキストから高品質な画像を生成できるようになっています。 – 新しい ChatGPT Images が登場
- 大規模言語モデルでは、実際には「単語」そのものではなく、トークン(token:文字列を細かく分割した単位)を対象として、次に現れやすいトークンを確率的に予測しています。この説明は簡略化したものです。Large language models (LLMs)
- プロンプトエンジニアリングと呼ばれる、効果的な指示文を作成する技術が重要視されています。明確で具体的な指示、例示の活用、段階的な思考を促す指示(「ステップバイステップで考えてください」など)が、より良い結果を得るためのコツです。 – ChatGPTを活用するためのプロンプトとは?
- AI分野における「ハルシネーション」とは、事実確認や外部の根拠(grounding)に基づかず、それらしく見えるが誤った情報を生成する現象を指します。擬人化を避け、「根拠のない生成」と表現する立場もあります。AI hallucinations
- ハルシネーション(幻覚)には2種類あります。「内在的ハルシネーション」は学習データと矛盾する情報を出力するもの、「外在的ハルシネーション」は学習データに存在しない情報を創作するものです。OpenAIの研究では、GPT-3.5からGPT-4へのバージョンアップでハルシネーションのスコアが40%改善されたと報告されています。 – ハルシネーション (人工知能) – Wikipedia
- ハルシネーションの発生を抑制する技術として、RAG(Retrieval-Augmented Generation:検索拡張生成)があります。これは外部の信頼できる情報源を参照しながら回答を生成する手法で、事実に基づいた正確な情報提供を可能にします。また、人間のフィードバックからの強化学習(RLHF)もハルシネーション抑制に効果があります。 – ハルシネーションとは?定義・原因・事例・リスク・対策
- OpenAIを含む生成AI提供者は、医療・法律・金融などの高リスク分野では、生成AIの出力を専門的判断の代替として使用すべきではないと明示しています。How your data is used to improve model performance
- 2025年現在、ChatGPTには検索機能が統合されており、最新情報へのアクセスが可能になっています。ただし、検索結果を含めた回答でもハルシネーションが発生する可能性があるため、重要な判断には必ず専門家や一次情報の確認が必要です。 – ChatGPTを含む大規模言語モデル(LLM)の新しい特性
- これは、シンデレラの魔女の「世界一美しいのは誰」という話と似ていますね。
- ソフトウェア開発は生成AIとの相性が良い分野の一つとされており、コードの下書き生成やリファクタリング支援などで活用されています。ただし、生成されたコードにはバグや脆弱性が含まれる可能性があり、検証は不可欠です。Generative AI in software development
- 具体的には、コード補完、バグ修正の提案、テストコード生成、リファクタリング支援、技術ドキュメントの作成などで活用されています。GitHub Copilotなどのツールは、LLMを活用してプログラマーの生産性を大幅に向上させています。 – 大規模言語モデルを理解する:総合ガイド
- 個人向けのChatGPTでは、設定により入力内容がモデル改善に利用される可能性があります。一方、API利用や法人向け(Enterpriseなど)のプランでは、既定で学習に使用しないことが明示されています。Enterprise privacy
- 生成AIの普及により、インターネット上の情報の信頼性判断がより重要になっています。画像や動画の真贋を見分けるメディアリテラシー、情報源の確認、複数の情報源による裏付けなど、批判的思考力が求められる時代になりました。 – ハルシネーションとは?事例と生成AIを利用する上での対抗策を3つ紹介