The Witness Logo
2025-02-20
#雑記

『ChatGPTに聞いたらこう言ってました』と言ってはいけない理由


「ChatGPTに聞いたらこう言ってました」——このフレーズを、会議やプレゼンの場で一度は耳にしたことがあるのではないでしょうか。あるいは自分が発言してしまったことがあるかもしれません。

生成AIの技術が驚くほど進化し、私たちの仕事や学習の仕方は大きく変化しました。ドキュメント作成やデータ整理、文献調査から企画のたたき台に至るまで、ChatGPTをはじめとするツールが瞬時に叩き上げのアウトプットを提示してくれる。しかも大量のデータや言語モデルを駆使した結果は、なかなかに説得力をもって見えることも多い。便利この上ない道具であることは、誰もが認めるところです。


しかしここで見過ごしてはいけないのが、「ChatGPTがそう言っている」と言う発言に責任を取る意思を感じるのか、という問題です。もし発言者が「ChatGPTに投げたらこう返ってきました。私はそれをそのまま採用しました」と言うだけなら、そこには“自分で判断した”という責任主体が存在しません。

仕事においては“情報源”の提示と“決定・選択”の行為を一貫して担うことが求められます。どんなに高度な道具を用いたとしても、最終的に価値を生み出すのは情報を評価し、吟味し、取捨選択を行う“人間”の部分なのです。


これはまさに、『〇〇さんに聞いたらこう言ってました』という発言ばかりしている人物の仕事として発揮している価値が低いことと同じです。その情報に対して、自分自身で責任を取るつもりのない態度は、一見“客観的な情報源“を提示しているようでいて、実は自分の立場を曖昧にし、意思決定の責任から逃げる姿勢を示すものです。このスタンスは、仕事の場において敬遠されるだけでなく、そもそも関わる人間の“介在価値”をゼロにしかねない危うさをはらんでいます。

一方で、ChatGPTのような生成AIを使っているかどうかは、成果の評価に対して、全く問題ではありません。生成AIを使った成果物はずるいなどと考える必要は全くないのです。時代に合わせて便利なツールを使うことは当然であり、むしろ積極的に活用すべきです。

重要なのは「ChatGPTが提示した情報を、どう評価・判断し、最終的にどのような責任を自分が負うのか」という点に尽きます。何かミスや誤った判断が発生したとしても、「ツールが言ったから仕方ない」「だってChatGPTがそう言ったんだ」と言ってしまうなら、それは社会や組織からすれば“責任を放棄している”と受け取られても致し方ありません。

ここに、生成AIの活用と“自らの仕事としての価値”を損ねる態度との、言葉としてはわずかであれど、スタンスとして大きな差異があるのです。

要するに「ChatGPTに聞いたら…」とばかり言うのは“他責的”な振る舞いであり、責任を取らない態度として受け取られやすいということです。AIの活用そのものは有用かつ推奨されるが、アウトプットの精査と最終判断は自分が担う必要があります。

他人やツールを“免罪符”にする発言は、自身の介在価値を失わせてしまうのです。

そういった意味で、「情報が間違っていたら申し訳ございませんが」「必要ない情報だったらスルーしてください」などと、事前に期待値を下げるためのディスクレーマーのようなものを使いすぎる人も同様と言えます。

自分が間違った情報を出したときに、後から指摘されたり、非難されたりすることを恐れるあまり、最初から自分の情報に対して免責事項をいつもたくさんつける行為は、あなたの発言全てについて、信用するに値しない情報であるというような印象を持たせることになり、誰もあなたの話を聞かなくなります。 勇気を持って、その情報が正しいと言い切ることこそが、あなたの信用を高めるのです。間違っていれば、間違っていてごめんなさいと謝ればOKです。 後から謝る行為と、事前に間違っているかも?と言うことには、自分が先にリスクを取るかどうかという点で大きな違いがあります。 事前に間違っているかも?と発言するということは、情報の受け取り手である相手に、その情報の正誤判断のリスクを取らせるということです。 これは、自分が責任を負っている仕事についてであるならば、普通に職務放棄と言えるレベルの行動です。

コンビニのレジの人が、「値段が間違っているかもしれない。間違っていたらごめんね」と言っていたら、あなたはびっくりするでしょう。 後から値段が間違っていることが判明したとして、謝った上で然るべき措置を会社として取るというのが、仕事として当たり前の態度です。

ツールは使うが、責任は他人に渡さない——生成AI時代の“主体性”

結局のところ、仕事における“主体性”とは、最終的な判断の矢面に立つ覚悟をもつことと言えます。ツールの言うことを鵜呑みにするのではなく、ツールを活かして自分の頭で考え、自分の言葉で主張できるかどうか。ここに、プロフェッショナルとしての力量が如実に表れます。

ツール依存とツール活用の違い

ChatGPTのような生成AIは非常に便利で、書類作成や文献調査、コーディングなど、あらゆる知的生産において絶大な威力を発揮します。私自身も、アイデア出しの初期段階や下調べ、後工程の実作業の効率化においてヘビーユーズしています。しかしその先で必要になるのは、ChatGPTから得た情報を自分なりに検証し、必要なら修正を加え、意見を付加し、自分の仕事として仕上げる、自分自身で責任を取るためのプロセスです。

安易に「AIがこう言っているから、それで問題ないはずだ」と丸投げしてしまうのは、結果に対して責任を持つ姿勢がない“依存”に近い行為です。ツールが提供する情報をうのみにしてしまえば、人間の仕事が単なる情報の受け渡しに終始してしまう。それでは単純作業と大差ない仕事になってしまい、そこに“プロとしての存在意義”は見出しにくいでしょう。

“責任の所在”を曖昧にしてはいけない

かつての職場でも、上司から「君はどう考えているの?どうしたいの?」と詰問される場面を見たことがある方は多いでしょう。情報源を提示するだけでは、仕事としての責任を完遂したことにはならず、自分で分析や解釈を行い、「だからこそ、私はこれを選択すべきだと考えます」と結論づけるまでが、本来の責務です。

この“責任の所在”を曖昧にするような発言こそが、「ChatGPTに投げたらこうなった」という言い方です。ツールのアウトプットをそのまま引き渡した時点で、まるで判断主体をツールに移譲してしまったかのように聞こえてしまう。結果として周囲からは「結局、この人は自分で考えていない」「この人に任せて大丈夫なのか?」という不安を抱かせることになります。

現時点では、ChatGPTのようなAIはあくまで“道具”であり、意思決定者は常に人間です。 AIが生み出した情報の最終的な評価・解釈の責任は、常に自分に帰結することを忘れないという姿勢がなければ、もはやその人は仕事に介在する価値がないのです。

古今東西のプロフェッショナルたちから学ぶ責任意識

ソクラテスの問答術と“主体的な思考”

古代ギリシアの哲学者ソクラテスは、対話を通じて相手に問いを投げかけ、自ら考えさせる“問答法”で知られています。ソクラテスが行ったのは、ただ“答え”を与えるのではなく、相手の思考を深め、本質に迫るための導きでした。

もしソクラテスが現代に生きていて、ChatGPTのような生成AIを使うとしたらどうでしょうか。彼はきっと、そのAIが吐き出した情報を「なぜこの答えに至ったのか?」「その根拠は何か?」「もしこの前提を疑うとどうなる?」と、容赦なく突き崩していくはずです。大切なのは答えそれ自体ではなく、その背後にあるロジックや前提を問い続けることであり、最後まで自分で思考する作業を放棄しない姿勢にあります。

責任とは、翻って言えば“自らの頭で考え抜く”ことだともいえるでしょう。ソクラテスが求めた対話の先にある“真の理解”のように、私たちもまたAIが示す答えを鵜呑みにせず、自分で思考し、人にも説明ができるレベルまで噛み砕く努力をする。その積み重ねこそが、プロフェッショナルとしての確固たる信用につながります。

“誰か(何か)に聞いたらこう言っていました”が信用されない理由

歴史を紐解くと、無名の人間が大きな功績を立てたケースは多々ありますが、「〇〇という偉い人が言っていたから」「権威のある書籍にはこう書かれているから」だけでは信用されなかった事例も数多く存在します。むしろ、誰かの名声に頼るだけでなく、自分自身の主張を裏付ける証拠や論理、責任感を示すことでこそ道が開けるのです。

現代社会では、言うなれば権威の象徴に、書籍や偉人に加えてAIが加わったにすぎません。“ChatGPTに聞いたらこうだった”と言うことは、過去に“誰々が言っていたから正しいはずだ”と主張するのと何ら変わりはない。少なくとも仕事の場では、自分の言葉で「だから私はこう判断する」と言い切ることが期待されます。

AI時代を生き抜くために

時代は確実に移り変わり、情報検索や文書作成の形態はかつてないほど様変わりしています。ChatGPTはその象徴的な存在であり、私たちに新しい可能性を開く窓を提供してくれる素晴らしいツールです。しかし、だからこそ「ChatGPTに投げたらこうなった」という言葉を免罪符のように使うのは避けるべきです。これは、責任をAIに丸投げする姿勢を暗に示してしまい、プロとしての信用も価値も損なう危険を孕んでいます。

責任をもった仕事をするということは、情報の出どころや根拠を踏まえたうえで、自分の結論として提示し、その結果がどう転んでも責任を引き受ける覚悟を持つことにほかなりません。そこには少なからずリスクが伴いますが、リスクを一切排除して“誰か(AIを含む)に聞いたらそう言ってました”で済ませてしまう仕事は、長期的には自らの専門性や発言力を失わせることにつながります。

つまり、生成AI時代を生き抜くためには、歴史上の哲学者やリーダーたちが示してきたように、“主体的に判断する姿勢”を放棄しないことが決定的に重要なのです。「ChatGPTが提示したものを、自分はどう咀嚼し、どう組み立てるのか」。この問いを自らに課し続けることが、あなたの仕事をより強靭なものにし、周囲からの信頼を獲得する確かな道筋となるでしょう。

まとめ

  • 「ChatGPTが出した情報」はあくまで“インプット”であり、自分のリスクで責任を取るつもりのアウトプットとは、内容が全く同じであっても、スタンスが全く異なる。
  • 自分の判断と責任を明確に示すことが、仕事における介在価値を高める。
  • ツールの性能が上がるほど、その情報を吟味し、自分なりの答えを出す主体性がいっそう求められる。