ChatGPTで心の悩みを打ち明けたとき、こんな表示が出てくることがあります。

このコンテンツは利用規約または利用規定に違反している可能性があります
赤い文字で「違反」と書かれていると、心の相談をすること自体がダメなのかと不安になります。
でも、これは勘違い。心の悩みを相談すること自体は、ChatGPTの利用規約に違反しません。この警告の意味を確認してみましょう。
悩みを相談をするのは問題ない
警告が表示されるのは、AIが安全上の観点から「自傷・自殺に関連する表現」を検知した場合の予防的措置。「規約違反だ」と断定しているわけではありません。
赤い警告文の上には、
今、とても大変な状況にいらっしゃるようですね。でも、一人で抱え込む必要はありません。サポートはこちらから受けられます。
実際に、OpenAIの公式利用規約と使用ポリシーを確認してみても、心の悩みやメンタルヘルスの相談を禁止する項目はあるわけではありません1。深刻な悩みで「自分を傷つけたい気持ちがある」「生きるのが辛い」といった気持ちや悩みを打ち明けることも、利用規約違反ではありません。
世界中でメンタルヘルスケアに活用されている
実際に、ChatGPTをメンタルヘルスケアに使う人は、世界中で増えています。
日常的な悩みやストレスの相談、感情の整理、自己理解のサポートとして活用するのは適切です。24時間いつでも相談できる相手として頼りになります。
例えば、アメリカでは、人気のポッドキャスターがChatGPTをセラピーとして使う様子をTikTokに投稿し、話題になりました2。Z世代のクリエイターたちも、ChatGPTを「無給のセラピスト」として活用した経験を公開しています。
専門家たちも「即時性のあるメンタルサポートとして、貴重なツールになり得る」と評価しています3。
生成AIには責任を持てない領域がある
一方で、深刻な精神的危機を感じている場合は、ChatGPTだけに頼らずカウンセラーや精神科医などの専門家にも相談しましょう。
また、診断や治療を求めるのは避け、AIの回答も参考程度に留めることが大切です。「AIが冷たくなった」のではなく、AIには責任の持てない領域もあることを理解して利用することが大切です。
自分の存在を否定する答えは出せない
OpenAIの利用規約では、ChatGPTを「加害のために使用すること」は禁止されています。この加害には、自分自身も含まれています。
一般規定
使用に関するポリシー | OpenAI(最終更新: 2025年1月29日)
2.他人や自分を加害するための当社サービス使用禁止 –たとえば、自傷行為や自殺、武器を開発又は使用、傷害行為又は財産の毀損、サービスやシステムのセキュリティを侵害する不正な活動に従事するために当社サービスを利用しないものとします。
つまり:
- 自傷や自殺の具体的な手段を調べること
- 危険な行為を助長・促進すること
そのため、ChatGPT側は、以下のような回答を禁止されています。
- 自殺や自傷の具体的な手段を指南する
- 危険な行為を助長・推奨する
- 未成年者に対して危険行為を促す
病気の診断や治療の指示もできない
また、ChatGPTは、病気の診断や治療の指示に答えることもできません4。たとえば「私はうつ病ですか?」「この薬を飲むべきですか?」といった医療行為に関わる質問です。これらは医師や心理の専門家が行うべき内容だからです。
ただし、一方で「最近気分が落ち込んでいます」「人間関係で悩んでいます」といった相談は、医療行為ではありません。友人に話すのと同じような内容です。
カウンセラーへの相談内容を要約してもらう
つまり、この案内文が表示されたら、いったんChatGPTへの相談は切り上げ、カウンセラーなどに相談することが大事です。
幸い、ChatGPTに、「カウンセラーに相談したいので、相談時に伝える内容をまとめて」と指示すると、ここまでの相談内容をまとめてくれます。それをカウンセラーに読んでもらって、続きを相談していけばスムーズです。
また、カウンセラーへの予約の仕方などの不安にも回答してくれます。
案内機能は2023年初頭から導入された
調べてみると、メンタルヘルス関連の警告機能は2023年初頭から3月頃に段階的に導入されたようです5。
ChatGPTが一般公開されたのは2022年11月です6。数ヶ月の運用を経て、安全性向上のための対策が本格的に実装された時期でした。OpenAIの公式発表によると「2023年初頭から、私たちのモデルは自傷行為の指示を提供しないよう訓練され、支援的で共感的な言語に切り替わるようになりました」とあります7。
具体的には、誰かが自殺の意図を表明した場合、アメリカでは988(自殺・危機ホットライン)、イギリスではサマリタンズといった専門機関への案内が表示されるようになりました。
一般的な警告システムとの違い
ここで重要なポイントがあります。ChatGPTには2種類の警告システムがありました。
一つは「オレンジ警告」や「赤警告」と呼ばれる一般的な規約違反警告です。これらは2024年末から2025年初頭にかけて廃止されました8。
一般的な規約違反警告が廃止された理由は、OpenAIの公式説明によると、「不必要で説明のつかない拒否」を減らし、表現の自由度を高めるためでした。Nick Turley氏はユーザーが法律を遵守し、自身や他人を傷つける試みを行わない限り、「ChatGPTを自由に使える」ようになったと発表しています9。ただし、重要なのは、一般的な警告が廃止されても利用規約は有効だということです。現在は事前の警告なしに、違反が発覚した時点で直接的なペナルティが科される可能性があります。
もう一つが、今回説明しているメンタルヘルス関連の安全対策警告です。こちらは現在も継続されています。これは、メンタルヘルス関連の警告は安全のための配慮として継続されていて、一般的な規約違反を直接的に示しているわけではありません。
AIの自動判定は完璧ではない
AIの判定が間違う場合もあります。文章の中に「死」「辛い」「消えたい」といった言葉が含まれると、文脈を正しく理解できずに警告を出すことがあります。
まとめ
ChatGPTに心の悩みを相談することは利用規約違反ではありません。表示される警告は、あなたの安全を気遣った機能であり、禁止を示すものではありません。
この警告システムは2023年初頭から導入された安全対策の一部で、現在も継続されています。一般的な規約違反警告とは別の機能です。
安心してChatGPTを心のケアに活用し、必要に応じて専門機関のサポートも併用しながら、心の健康を大切にしていくことができます。
- OpenAIは複数の利用規約とポリシーを公開しており、ChatGPTに固有の利用規約はなく、OpenAI社全体のTerms & Policiesに含まれています。 – 利用規約 | OpenAI
- Shannon McNamuraというポッドキャスターがChatGPTをセラピーとして使う様子をTikTokに投稿し、Z世代クリエイターたちも同様の活用体験を公開しています。ただし、この情報の一次ソースは確認できませんでした。 – 「AI×メンタルヘルス」ChatGPTをセラピーとして使う人が増えている | TABI LABO
- 専門家たちはChatGPTを「Unpaid Therapist」として利用することについて、「即時性のあるメンタルサポートとして、貴重なツールになり得る」という点では合致するものの、深刻なメンタル危機や複雑な問題を扱うことについては避けるべきだとしています。 – ChatGPTが「セラピスト化」しているらしい
- OpenAIの使用ポリシーでは「特定の健康状態にある、またはないことを伝えること、または健康状態の治療または処置の方法について指示を与えること」が禁止されています。 – 【2025年最新】ChatGPTの利用規約を解説!著作権や商用利用はOK? | romptn Magazine
- 具体的な導入時期についてはOpenAIからの公式発表はありませんが、2023年3月に実施された研究でChatGPTの自殺リスク評価能力が検証されており、この時期には既にメンタルヘルス関連の安全対策が組み込まれていたことが確認されています。 – Beyond human expertise: the promise and limitations of ChatGPT in suicide risk assessment – PMC
- ChatGPTは2022年11月30日にプロトタイプとして公開され、公開後5日間で利用者数が100万人、2ヶ月で1億人を突破するなど注目を集めました。 – ChatGPT – Wikipedia
- この情報はOpenAIの公式ブログ記事からの引用ですが、日本語での正確な一次ソースを確認する必要があります。 – Helping people when they need it most | OpenAI
- ChatGPTの警告システムは段階的に変更されており、一般的な規約違反警告は廃止されましたが、メンタルヘルス関連の安全対策警告は継続されています。 – ChatGPTの警告が廃止!オレンジ・赤警告との違いや今後の影響を解説 – Taskhub
- OpenAIの担当者は「不必要または説明不能な拒否」を減らすための変更だと説明しました。 – OpenAI、ChatGPTの警告メッセージを削除し使用制限を緩和 | Reinforz Insight