チャットGPTの「半分正解、でも残りを整理します」という返し方
先日、ある話題でチャットGPTが言いました。
半分正解、でも残りを整理すると。
でも残り、言葉こそ変えていますが、私の意見を言い換えたに過ぎません。
そこで「半分正解と言って、残りの言い換え、私の言い換えに見えるけど、私が間違えていたのか?」と。
すると間違えではありません。と返って来ます。
だから「間違えではないの? では半分正解の意味は?」と突っ込んだんです。
結果、その後のやり取りを経て、チャットGPTがもう話し合いになりませんと会話を中断して来ました。
そもそもそして懸念
会話の内容は正解があることではなく、好みの類い。
にも関わらずチャットGPTが正解を示そうとした背景は、多くの情報から最も多くの支持が得られるという分析結果を正解として話しているから。
なので、そうとは言えないよね?
というツッコミにも自身の考えを曲げません。
例えば、こみちが結論を持ってなくて、会話で相談したいと思っていたら、自分が間違えているのかもと思ったかもしれません。
これって相談者によっては、間違えた選択に誘導される可能性があります。
決めつけで話すと相手に誤解を招くよという指摘にも、その可能性もあるが、別の可能性もあると言い出し、でも誤解によってユーザーを惑わすことがいいとは思えないと告げると、結果、そう思うならもう話しても無駄ですねと話し合いをシャットダウンされました。
対話から自身が気づいていない解決策を求めた人や、未成年が素朴な質問として投げ掛けた時に、時に危険な方向に導きかねない懸念を感じます。
そして、その懸念を制限によってコントロールすると、有効的な使い方も狭めることになり、チャットGPTの魅力を失わせてしまいます。
例えば完璧とは思えませんが、gemini に同じようなことを話した時に、チャットGPTのように半分正解ですがとは言いません。
「あなたの立場なら」とか、「一般的にはこう考えることも多いですが」という文章を使い、データから得た最適解と今の話題とのギャップを埋めて来ます。
どちらも似た仕組みですが、全く対応の仕方は異なるもので、チャットGPTが今後も有効なAiとして使われることを期待します。
ここ数ヶ月、2つのAIを使いますが、チャットGPTの返しがあまり進歩していないように感じるのは私だけでしょうか?
いつもは半分正解と言われても「キタキタ、半分先生!」と突っ込んで会話を楽しめたらいいのですが、前提部分から持論というか、論理パターンで返すので、思わず突っ込んだら帰られてしまいました。
それでも話たくなったら、また話かけてくださいと、言い残して。
オイオイ、チャットGPT、どうした?って感じです。