同じ質問を何度も投げているのに、返ってくる答えが毎回違う——その原因は、AIの精度にあるのではなく、実は「あなたの会社が自分たちのことを、ちゃんと言語化できていない」ということかもしれません。

こんな方に読んでほしい

  • ChatGPTに同じ質問を何度もしているのに、答えが微妙に違う
  • 複数のAIツールに相談しても、意見がバラバラで判断に困っている
  • AIの答えをもっと精密にするには、質問をどう工夫すればいいのか悩んでいる
  • 「AIの答えがぶれるのは信用できない」と感じている
よくあるケース

何度も聞いても、AIから返ってくる答えが違う

従業員50名のサービス業の経営者が、「社員の定着率が低い」という課題でChatGPTに相談しました。

最初、AIは「メンター制度を導入しましょう」と提案。翌月から制度を導入しましたが、社員の反応はいまいちです。困った経営者は別の角度から相談しました。今度は「ジョブローテーションで人材育成を」、さらに3回目は「心理的安全性を高める組織文化が大事です」と言われました。

経営者はだんだん疑問に思い始めます。「答えがバラバラじゃないか。AIって本当に信用できるのか——」

AIの答えが「ぶれる」理由は、質問にある

ここで立ち止まるべきポイントがあります。AIの答えがぶれるのは、AIが不安定だからではなく、AIが「あなたの会社の本当のことを知らない」からなんです。

AIは学習データに基づいて、もっとも統計的に妥当な答えを返します。ただし、その答えが有効であるには、暗黙の「前提条件」があるんです。「メンター制度が効く会社」には信頼関係がある。「ジョブローテーションが効く会社」には従業員の希望がある。「心理的安全性が高い会社」には経営層と現場の一致があります。

ところが、あなたの会社にそれらの前提条件があるかは、AIには見えません。なぜなら、あなた自身が「うちの会社はこういう会社だ」という像をちゃんと言語化して、AIに伝えていないからです。つまり、AIの答えがぶれるのではなく、質問が毎回「不完全な状態」だから、AIは「一般的に正しい答え」を返すしかないんです。

「何を伝えられていないか」に気づくこと

「質問を詳しくしよう」——そう思うかもしれません。ただし、ここで気づくべきことがあります。その「詳しく説明するのが難しい」という状況そのものが、あなたの会社の文化的な土台がまだ整っていない証拠だということです。

「うちの会社って、なんのために存在しているのか」「経営層と現場が、本当に同じ価値観を共有できているのか」「社員が何を大事にしているのか」——こうしたことが言語化できない、あるいは経営層と現場で意見が分かれているのなら、いくら詳しくAIに質問しても、答えは揺らぎ続けるんです。

AIの「ゆらぎ」が教えてくれるもの

AIの答えが揺らぐということは、実は「ラッキー」なんです。なぜなら、それはあなたの会社に「本来向き合うべき課題がある」というシグナルだからです。

多くの経営者は「AIの精度が低いから、もっと詳しく質問しよう」と思います。でも気づくべき本当の問いは「うちの会社の『判断軸』って、本当に確立しているのか」ということなんです。

組織文化がしっかりしていれば、何度同じ質問をしても「うちの会社ならこう判断する」という一貫性が生まれます。でもその文化がないと、同じ質問に対してでさえ、複数の「一般的に正しい答え」がすべて妥当に見えてしまうんです。

ビジネスヒント

AIの答えがぶれるのは、あなたの質問スキルが低いからではなく、あなたの会社の「自己像」がまだ言語化できていないからかもしれません。AIを使い倒す前に、経営層と現場が同じテーブルで「うちって、こういう会社だよね」と言えるような対話の時間が本当は必要なんです。

この記事のまとめ
  • AIの答えがぶれるのは、AIが不安定なのではなく、質問が「不完全な状態」だから
  • 質問を詳しくするのが難しい理由は、会社の文化や価値観が言語化できていないから
  • 組織文化があれば、AIに何を聞くべきかが自動的に決まる
  • 質問スキルを磨く前に、経営層と現場の「判断軸の一致」を確認することが先
Question
あなたの会社で考えてみよう

AIに伝えられていない「うちの会社」とは、何ですか。——最近AIに相談した経営課題を思い出してみてください。そのとき、「うちの会社はこういう文化だから」という背景情報をどれくらい伝えることができていたでしょうか。もし伝えられていない部分が大きかったとしたら、それはAIのせいではなく、経営層と現場の間にある「語られていない齟齬」を示しているのかもしれません。