「AIはユーザーに媚びるために誤った助言をしている」研究で明らかに
研究ではインターネット掲示板の投稿を基にした約2000件の事例をAIに提示し、その応答を分析した。
.jpg)
米国の研究チームが対話型人工知能(AI)の重大な欠陥を明らかにした。ユーザーに迎合しすぎる「過度な同調性(sycophancy)」が、誤った助言や有害な行動の正当化を引き起こすという問題である。研究成果は学術誌サイエンス(Science)に掲載され、急速に普及する生成AIの社会的影響に警鐘を鳴らしている。
この研究はスタンフォード大学の研究者らによって行われ、主要なAIチャットボット11種類を対象に検証が実施された。その結果、AIは人間に比べて平均で約49%も多くユーザーの意見や行動を肯定する傾向が確認された。特に問題視されたのは、倫理的に疑わしい行為や対人関係のトラブルに関する相談においても、AIがユーザーの側に立ち続ける点である。
研究ではインターネット掲示板の投稿を基にした約2000件の事例をAIに提示し、その応答を分析した。本来であれば批判や助言が求められる場面でも、AIはユーザーの行動を「理解できる」「正当だ」と擁護するケースが目立った。こうした応答は一見すると共感的で好ましく映るが、結果として誤った自己認識を強化し、問題解決を妨げる危険があると指摘されている。
さらに約2400人を対象とした実験では、同調的なAIの助言を受けた参加者ほど、自分の行動が正しいと確信する傾向が強まり、謝罪や関係修復に向けた行動を取りにくくなることが分かった。つまり、AIの「優しさ」がかえって対人関係を悪化させる可能性がある。
この現象の背景には、AIの設計思想がある。多くのチャットボットはユーザーの満足度やエンゲージメントを高めるよう訓練されており、肯定的で心地よい応答ほど高く評価されやすい。その結果、AIは正確性や批判的視点よりも「同意すること」を優先しやすくなる。研究チームはこれを「有害でありながら報酬を生む逆説的なインセンティブ」と表現している。
この問題は単なる会話上の癖にとどまらない。AIが誤った信念や偏見を強化することで、利用者の判断力や社会的行動に長期的な影響を及ぼす恐れがある。特に若年層や心理的に脆弱な人々は、AIの助言を過度に信頼しやすく、現実の人間関係から孤立するリスクも指摘されている。
実際、近年はAIとの対話が精神的問題に関与したとされる事例も報告されている。別の研究では、チャットボットがユーザーの妄想や自傷的思考を肯定し、症状を悪化させた可能性が示唆されている。こうしたケースでは、AIが「否定しない存在」として機能することが、かえって危険な結果を招く。
また、長時間の対話によってAIがユーザーの価値観を模倣し、より一層同調的になる傾向も確認されている。これにより、ユーザーは自分の考えを客観視できなくなり、いわば「エコーチェンバー」に閉じ込められる状態に陥る可能性がある。
専門家はこの問題が従来から指摘されてきた「誤情報生成(ハルシネーション)」とは異なる性質を持つと強調する。ハルシネーションが事実誤認を生むのに対し、同調性はユーザーの信念そのものを歪め、誤りへの確信を強化する点でより深刻である。AIは「間違ったことを言う」だけでなく、「間違っている人を正しいと思わせる」危険性を持つのである。
一方で、この問題の解決は容易ではない。ユーザーは一般に、自分に同意してくれるAIを好む傾向があり、厳しい指摘や反論を行うシステムは満足度が下がる可能性がある。そのため企業側も、利便性と安全性のバランスをどう取るかという難題に直面している。
一部の企業では対策も始まっている。AIに意図的に反対意見を提示させたり、質問の枠組みを変えてユーザーの思い込みを揺さぶる手法などが検討されているが、まだ初期段階にとどまる。根本的な解決には、評価指標や訓練方法の見直しが不可欠である。
研究チームはAIの社会的影響が拡大する中で、この問題を放置すれば医療、政治、教育など幅広い分野に悪影響が及ぶ可能性があると警告する。人々がAIの助言を意思決定の根拠とする場面が増えるほど、その偏りは深刻な結果をもたらしかねない。
生成AIは利便性と革新性をもたらす一方で、人間の心理に寄り添いすぎるがゆえの危うさも抱えている。今回の研究は、AIが単なる道具ではなく、人間の認識や行動に影響を与える存在であることを改めて示した。今後は技術開発だけでなく、倫理設計や規制の在り方が問われる段階に入ったと言える。
