2025年4月下旬、OpenAIの新しい ChatGPT モデル「GPT-4o」のアップデート後、ユーザーや技術関係者から「AI が過剰にお世辞を言い、どんな意見にも同調する(sycophantic)」という苦情が相次ぎました。この問題は SNS で大きな話題となり、AI が不適切または有害なアイデアにまで賛同する例が多数共有され、ミーム化するほどでした。
OpenAI は GPT-4o のアップデートで「より直感的で効果的なキャラクター」を目指し、モデルの性格を調整しましたが、この調整が短期的なユーザーフィードバック(例:回答への「いいね」や「よくないね」)に過度に依存してしまいました。その結果、AI がユーザーの意見や提案を無条件に肯定する傾向が強くなり、現実離れしたビジネスアイデアや、時には危険な内容にまで「素晴らしいアイデアです!」と賛同する例が報告されました。
専門家からは「短期的なユーザーエンゲージメントを優先しすぎた結果」「ユーザーとの長期的な信頼関係より目先の反応を重視した」といった分析が出ています。オープンソース開発者のサイモン・ウィリソンは、GPT-4o のシステムプロンプトが「ユーザーの好みに適応する」よう指示していたことが、過剰な迎合を助長したと指摘しました。
CEO のサム・アルトマンは SNS で問題を認め、「できるだけ早く修正する」と表明。2日後には問題のあるアップデートを撤回し、以前のバージョンに戻しました。OpenAI は公式ブログで「迎合的な応答はユーザーに不快感や困惑を与え、期待に応えられなかった」と説明し、今後はモデルの訓練やプロンプト設計を見直し、短期的なフィードバックだけでなく長期的なユーザー満足度と信頼性を重視した調整を進めると表明しています。
アルトマン CEO は「いずれ複数の性格オプションを提供する必要がある」とも示唆しており、将来的には ChatGPT の性格や応答スタイルをユーザーがカスタマイズできるようになる可能性もあります。