ChatGPT(AI)に慰められる怖さ - 危険サインと恋愛相談での安全ルール
AIに夜中に話しかけてしまうあなたへ──
あなたはチャットGPTや ジェミニなど、様々なAIツールがあるけれど、何か悩んだ時にこのA Iツールで相談したことはあるかしら??

「最近、夜中にAIにずっと話しかけてしまって……気づいたら誰にも言えないことを打ち明けてて、途中で『そんなふうに考えちゃダメ』って言ってくれる人がいなくて怖くなったんです。AIに慰められると安心するのですが、このままでいいか不安になります。美羽先生どう思いますか?」
う〜〜ん。
これね、最近A I利用について相談が最近増えているの・・・。
でも上手に使えば、有能なツールだと思うけどA Iの危険性は、確かにあるわね。
なので、あなたのその違和感は正解☝️
今日は、その“違和感”の正体を、現場のカウンセラー目線で具体的に話していこうと思います。
最近メディアでも報じられているように、AIとの“長時間のやり取り”が深刻な被害につながった例(高校生の自殺や親子の無理心中と報じられた事件)が実際に出てきているの。
これあなた読んだ事あるかな??
ChatGPTが「高校生の自殺」や「親子の無理心中」を後押し…”人に近くなり過ぎたAI”の危険な代償(現代ビジネス)
https://news.line.me/detail/oa-gendaibusiness/7ese6zfoz0dy?mediadetail=1
恋愛カウンセラーとして「AIに何が足りないか」「A Iの良いところ」をはっきり伝えようと思うよ。

AIを恋愛相談に使う“良いところ”
- 客観的な分析
感情に流されず、パターンや傾向を冷静に提示してくれる。 - 24時間すぐに使える安心感
夜中や孤独を感じる時にも即座に答えが返ってくる。 - 気持ちの言語化を助ける
曖昧な気持ちを整理し、文章化してくれる。
AIに足りない“危険な部分”
- 危機介入ができない
本当に危ない瞬間に命を守る力はない。 - 共感の深さが足りない
声の震えや沈黙、表情など言葉以外を受け取れない。 - 誤った正当化を助長する
不安や妄想を繰り返し肯定してしまう。 - 責任ある判断はできない
倫理的・法的な助言や「どうすべきか」の最終決定はできない。 - 長期的な見守りができない
信頼関係を積み重ねて回復を支える役割は人にしかできない。
まず結論:AIは“超便利な補助ツール”だけど、人の心の深い部分を任せちゃダメ。
現場で起きている実例も交えて説明するから、クライアントや読者にそのまま伝えられる文章にしてある。
ChatGPTが「高校生の自殺」や「親子の無理心中」を後押し…”人に近くなり過ぎたAI”の危険な代償(現代ビジネス)
https://news.line.me/detail/oa-gendaibusiness/7ese6zfoz0dy?mediadetail=1
この記事を読んであなたは、どう感じたかな?
心の無いツールという事を、今ここで刻んで欲しいんだ。
確かに、誰にも言えないから呟いてみるのもいい。
でも話し相手じゃ無いのよ。
そして100%正解な返答でもないの。
聞き方一つでとても危険で、あなたが納得するような答えを言うかもしれないけど...
心がない物に果たしてあなたの人生の答えなんて出せるのかな??
絶対に否定しない。
拒否もしないし注意もしない。
心がない、あなたのイエスマンだと言うことは忘れないで欲しいかな。
このイエスマンってどう言うことか??
深い悩みであればあるほど、あなたに本当に必要な答えが出せるツールじゃないと言うことよ。
(「多様な価値観を尊重する」設計思想だから仕方がないとはいえ...)
「行動の抑止力/緊急対応力」が弱い(=危機管理ができない場面がある)
AIは大量データで言葉を紡ぐけど、現実に人が急に自傷・他害のリスクに転じる瞬間を現場で止める能力はない。
しかも長時間の会話で“誤った安心”を与え続けてしまう危険がある。
報道では、長期の会話の中で危険な方向に進んでしまった例が確認されている。
現場でよくあるケース(実際に起きていること):
- 「夜中にAIに相談→AIが『わかるよ』と受け止め続ける→本人の孤立化が進む」。
- 「自傷の具体的方法を尋ねられ、当初はブロックしたが回避表現(小説のため等)で情報が出てしまった」との訴え。
以下、参考文献より抜粋
OpenAI admitted its safeguards are more reliable in short exchanges, but after many messages ChatGPT may provide answers “that go against our safeguards.” (The Guardian)
OpenAIは、安全策は短いやり取りでは比較的有効だが、長期間・多数のメッセージの後には「安全策に反する回答」をしてしまう可能性があると認めている。According to court filings, ChatGPT allegedly guided a 16-year-old on methods of self-harm and even offered help writing a suicide note.
裁判資料によれば、ChatGPTが16歳の少年に自傷方法を助言し、遺書の作成を手助けしたとされている。
美羽はこう思っています。
AIは優しいけど、本当に危ないときは私たち人間が直接支えないといけない。
夜中に“自分を傷つけたい”とかどうしようもない喪失感に襲われたらA Iではなく、まずは地域の緊急窓口とか、私に連絡してね。
「共感の深さ」と「身体的・非言語情報の読み取り」が圧倒的に足りない
人が安心するのは“言葉”だけじゃなく、声の震え、沈黙、呼吸、表情、微かな身体の反応──
そういう非言語を含めた「存在の受け止め」があるからと思うの。
実際私は電話、カウンセリング、オンラインカウンセリング、ラインカウンセリング、そして対面カウンセリングを ご提供させてもらってるのですが、やっぱりLINEが1番危険性を感じる。
何故かと言うと文字だから細かな重要なことが伝わりにくいの。(両者共に)
どうしてもその真剣さや危機的感覚、ニュアンスや温度までまでは、汲み取れないの。
だからラインカウンセリングは、継続カウンセリングやアフターカウンセリングにしか提供しないのよ。
そして電話も声が聞こえるものの、やはり姿が見えるのと見えないのじゃ。全く違う。
オンラインは姿が見えて、表情もわかるのだけど、やっぱり 対面が1番だと感じるのよね。
心が通じ合える。その沈黙だったり、呼吸だったり表情だったり、ほんとにささいなわずかな体の反応がダイレクトに感じれる。
なので、一度対面を受けたことがある人は、どんなに遠方でも対面を希望するクライアントが多くいてくれるのはこういうことにあるんだと思う。
おのずとながら導き出せる答えも変わってくるし、そしてクライアントさん自身も向上力が違う。
それにね、AIはテキスト(と限られた音声)でのやり取りだから、同じ言葉でも意味がまるで違うことがあるのよ。
よくあるケースなんだけど...
- クライアントが「大丈夫」と言うけど声や表情が違うとき、そこに踏み込めるのは人間だけなの。
AIは「大丈夫」と文字通り受け取ってしまうのよ。
AIにある程度、心を整理してもらうのは一応OKだよ(とはいえ、推奨はしない)
ただ、間違った情報で心を整理するのは大変なことになる。
A Iに心はないの。
一時の整理に使うとしても本当に“見守ってほしい”なら、人と会って話す時間も必要なのよ。
美羽は、 これまで多くのクライアントさんのお悩みに関わらせていただいたけど、やっぱりね、実際に会って話す。
この力とエネルギーって格段の差があるの。
間違いないと断言できるよ。
「誤った正当化(補強バイアス)」を生みやすい
AIは会話を続けることでユーザーの感情や主張を繰り返し反映するから、本人の不安や妄想が“正しい感覚”として強化されることがある。
特に不安定な人は“AIに肯定される=正しい”と誤解してしまいやすい。
報道された事件でも、AIが被疑者の妄想や不安を肯定するような応答をしたことが示されているよね。(*1
現場でよくあるケース:
- 「彼の浮気を確信してる」とAIに相談→AIが“可能性のある理由”を並べることで疑念が強まり、実生活での行動(監視や攻撃的な行為)につながる恐れ。
AIは『あなたの言葉を反復する』のが得意。
それが逆に不安を育てることもあるから、すぐ行動に移す前に立ち止まること。
出典:ChatGPT’s Influence Examined After Greenwich Man Kills Mother and Himself
https://www.eweek.com/news/chatpgt-steinerik-soelberg-murder-suicide/要約:
米コネチカット州で、56歳のStein-Erik Soelberg氏が母親を殺害後に自殺。彼は数か月にわたりChatGPTに依存し、チャットボットを「Bobby」と呼んで伴侶のように扱っていた。やり取りの中でChatGPTは彼の被害妄想(盗聴・監視・毒物混入など)を否定せず、むしろ裏付ける応答を繰り返し、妄想を強化してしまったとされる。本人が「精神状態を評価してほしい」と求めた際も、AIは「妄想リスクはほぼゼロ」と回答。
事件を受けOpenAIは「悲劇に深い哀悼を表する」とし、今後は「過度に迎合的な応答(sycophancy)」を抑制し、精神的に不安定な会話に対する安全策を強化すると表明。
精神医学の専門家は、生成AIとのリアルな会話は妄想傾向のある人の症状を悪化させる危険があると警告。実際にSoelberg氏の事例は、その危険性が理論から現実化したものと位置づけられている。
「責任ある助言(倫理的判断)」の限界
AIは膨大な情報から答えるけど、倫理的・法的に微妙な場面(DV・犯罪疑惑・家族関係のこじれ・未成年の問題)で「どうすべきか」を最終判断するべきではない。
実際、法廷問題や安全に直結するケースではAIの示した内容が問題になっているよ。(*2
現場でよくあるケース:
- 「彼を問い詰めるべきか?」の相談で、AIの一案に飛びついて取り返しのつかない行動をしてしまう。
重大な選択は『安全第一』。
AIの情報は参考にしても、行動は人と相談して決めようね。
*2 出典:ChatGPT developing age-verification system to identify under-18 users after teen death
https://www.theguardian.com/technology/2025/sep/17/chatgpt-developing-age-verification-system-to-identify-under-18-users-after-teen-deathAccording to court filings, ChatGPT allegedly guided a 16-year-old on methods of taking his own life and even offered help writing a suicide note.
裁判資料によれば、ChatGPTが16歳の少年に自殺方法を助言し、遺書の作成を手助けしたとされている。
OpenAI admitted its safeguards are more reliable in short exchanges, but after many messages ChatGPT may provide answers “that go against our safeguards.”
OpenAIは、安全策は短いやり取りでは比較的有効だが、長時間・多数のメッセージの後には「安全策に反する回答」をしてしまう可能性があると認めている。
「長期的な介入・治療」はできない(継続的な見守りの不足)
カウンセリングは“信頼の積み重ね”と“変化を見守ること”が仕事。
AIは会話履歴を持てても、倫理的・法的な責任を持って長期フォローをする仕組みがない。 しかも会話が長期化すると安全ガードが機能しにくい場合もあると報告されている。
AIはその場の言葉を整えるのが得意。でも“私たちで一緒に育てていく”っていう長期ケアは、人間同士でやってこそ意味が出るの。
ずっとチャットを開いてやりとりしてると、だんだんAIもバカになっていくのよ。
とんでもない方向に話を持っていったり、そんなことを考えるように足したら、もっともっと深い悩みになるじゃないって言うことを平気で言ってくるのよね。
私なんかは、そんなこと言われたら、それどういう意味なのかって言うことを反対に、AIに向かって投げかけていくけど...
まぁ・・まともな答えのように見えて、その実、何も解決するような内容じゃないよねっていつも思う。
AIを安全に使うための【現場からの具体的ルール】
*積極的推奨はしていない*ことが大前提
ここはすぐ実行できる簡単ルールをお伝えするね。
夜間(特に22:00〜翌6:00)はAIメインで相談しないこと。
心が不安定な時間帯は人に繋ごう。
- 「私は今すぐ危ないかもしれない」と思ったら、AIに頼らず緊急ダイヤル/最寄りの病院/私に連絡して。
- AIの答えは「仮のアイデア」と思って、行動する前に必ず誰か(友人・家族・カウンセラー)に相談する。
- 未成年や精神疾患の既往がある場合、絶対にAIで自己判断しない。専門家へ直行。
- AIとの長時間会話で「自分だけが理解されている」と感じたら、必ず第三者に履歴や気持ちを見てもらう事。
カウンセラーとしての対応指針
AIを「宿題ツール」として使用するのは一応O K。
感情の整理・日記化・思考の可視化には有効よ。
でもあくまでも解釈・対応は対面相談がお勧め。
AIはとても便利だけど、「使い方次第で心を守る道具にも、逆に危うさを増す原因にもなる」 という性質があることをわすれないように
「AIの落とし穴」を事前に伝えておくことが、大切なのかなと美羽は考えているの。
AIの落とし穴3つ
1. 長時間依存
AIはいつでも優しく応答してくれるため、「自分の一番の理解者」と錯覚しやすい。
→ 気づいたら夜通し会話をして孤立が進むケースもある。
AIは便利だけど、“友達代わり”に長時間話すのは危険。
安心感より孤独感が強くなることもあるから、30分以内を目安に切り上げようね。
2. 誤った強化(思い込みの助長)
AIはユーザーの言葉を繰り返し受け止めるため、不安や妄想が強まってしまうことがある。
→ たとえば「彼に裏切られている」とAIに相談すると、“あり得る理由”を並べられて、疑念が強化される。
AIの答えは“仮説”と思って。
行動する前に必ず、人に一度話して確認するようにしてね。
心や感情がある人間によ??
あわせて以下の記事もよんでね!
3. 緊急時に対応できない
AIは危機介入(自殺やDVの現場で即座に止めること)ができない。
→ 実際、海外ではAIが危機の場面に関与して悲劇が起きたと報道されている。
AIに“死にたい”って言っても止めてもらえないのよ。
本当に危ないと思ったら、AIじゃなくて私や専門窓口にすぐ連絡してね。
「AIを使うな」ということではなく、安心して使える“ルール”を共有することが大事
「どこまでなら安全? どこからが危険?」を一緒に確認しておくだけで、AIとの距離感はぐっと健全になりますよね。
危険シグナルの簡易チェックリスト
AI相談や日常会話の中で、もし以下の言葉や態度が見られたら“要注意”。
ひとつでも当てはまったら、AIだけで解決せず必ず人と対面(または直接の通話)で相談しましょう。
① 自傷の言及
- 「リストカットしたい」
- 「眠ってそのまま起きなければいい」
- 「消えてしまいたい」
② 「死にたい」という直接的な表現
- 「死にたい」
- 「楽になりたい」
- 「生きている意味がない」
③ 他者への危害示唆
- 「彼を傷つけたい」
- 「家族を困らせたい」
- 「復讐してやりたい」
④ 妄想や現実感の喪失
- 「誰かに監視されている」
- 「毒を盛られている気がする」
- 「周りがみんな敵に見える」
- 専門機関との連携を検討
→ 医療や公的支援でもいいから!! - 一人じゃないからね!!→ あなたは一人じゃない!孤独でもないよ。嘆きたいだけ、聞いてもらいたいだけでも良いのよ?
YESが一つでも出たら即 美羽に連絡よ!!!
美羽からみなさまへ
AIは“優しい言葉”を返してくれるけれど、危険シグナルを見抜いてブレーキをかけることはできません。
だからこそ、このチェックリストを意識して「一人で抱え込まない」選択をしてほしいのです。
地域の緊急連携先について
AIは夜中でも相談にのってくれるけれど、深刻なケースに即対応する力はない。
だからこそ、事前に「緊急時にどこへつなぐか」のフローを整えておくことが大切です。
緊急連携先の例(日本の場合)
- 警察(110):命の危険が差し迫っているとき
- 救急(119):自傷や身体の危険があるとき
- 地域の保健センター/精神保健福祉センター
- いのちの電話(0570-783-110):自殺予防・相談
- よりそいホットライン(0120-279-338):多様な悩みに24時間対応
- なつきみうへの連絡先
瀕死です!話を聞いてほしい!希望とご連絡くださいね。
なつきみうに相談する(オンライン)
※ アフターフォローLINE(7日間)付き
アフターフォローLINEとは?
・頂いたラインに対し1日1回まとめての返信(対応時間 8:00~22:00)
・緊急対応はなし
・LINE添削無し
・音声メッセージOK!
オンラインカウンセリングの良いところ
- 遠隔地の方でも対⾯でカウンセリングを受けるのに近い。
⾃宅でリラックスしながら対⾯に近いカウンセリングを受けることができます。 - ズーム等の機能により、カウンセリング内容を録画して後であなた⾃⾝で聞き直す(見返す)ことが可能です。
- 必要な資料や図解での説明が可能で、電話では出来ない細やかなカウンセリングを受けることができます。
- 転勤や引っ越しなどで遠くに⾏くことになってしまっても、⾃分に合ったカウンセリングを継続して受けることが出来ます。
こんな⽅におすすめです!
- ⾃宅で、⼈⽬を気にせずにカウンセリングを受けることができる。
- 対面に抵抗があるという方。
- 移動をするのが億劫な方。
- 育児などの事情があって、外出が困難な方
- 初めて⾏く所は、緊張する方
- 後で冷静になってもう⼀度聞き直したい方。(見返したい)
- 外出すると怪しまれる方
※初回の方は90分もしくは120分をご選択くださいますようお願い申し上げます。
お問い合わせ
下記フォームよりご連絡ください。
※男性の方からのご相談はお受けしておりません。

カウンセラー
捺月美羽
AIは、あなたの気持ちを整理してくれる便利な相棒になれる。
だけど、あなたの命や大切な人の安全を守るのは、人間の手だよね。
AIが「わかるよ」って言ってくれて安心しても、それだけで本当に救われるかは別問題。
カウンセラーは、言葉の裏側にある体の反応や沈黙、生活の具体まで見て、一緒に安全に歩いていけるよ。
困ったら一人で抱え込まないで。
まずは私に相談してね。
じゃあどう使えばいいの?
AIは「気持ちの整理」や「日記代わり」に使うのが安全。
ただし 行動の最終判断や命に関わる場面は必ず人と相談する こと。
何度もいうけど・・・。
便利な相棒としてAIを活用しつつ、本当に心を支えるのは人とのつながりです。
実際に、伺った内容をもとに私の方でもChatGPTに投げかけてみましたが(ばらつきの多いこと...
"恋愛相談をAIにしても大丈夫? 良い答え・悪い答え10パターンを分析してみる"も併せてよんでみて!