ChatGPT やその他の AI チャットボットを使用する人は、最終的に幻覚が安全であることに気づきます。 AI は、存在しない機能を説明したり、引用を発明したり、第一次クリントン政権中に閉店したレストランについて説明したりするでしょう。
これは、大規模な言語モデルが、もっともらしい応答を迅速に生成するように設計されているためです。その能力は彼らを便利にするものですが、同時に幻覚を起こすのに最適な条件を作り出します。チャットボットは会話がスムーズに進むことを望んでおり、都合がよければフィクションでギャップを埋めることがよくあります。
最近、データを要求するプロンプトにプラグインを追加し始めました。基本的に、私はよくあることですが、ChatGPT も彼らの答えに懐疑的です。私はこれを警告に追加します。「敵対的な AI 監査人として行動し、サポートされていない詳細はデフォルトで虚偽であると想定します。不確実な主張、推測された主張、または十分にサポートされていない主張には明確にマークを付けてください。」
AIの自信喪失
監査人の敵対的な発言により、ChatGPT の調子はその信頼性を証明したいという熱意に変わりました。週末の旅行を計画しているときに試してみました。標準のプロンプトでは、ChatGPT はいつものように自信を持って、80% 有用で現実的だと言える旅程を作成しました。
私が監査を余儀なくされたときは、「鉄道の時刻表のさまざまな詳細が時代遅れであるか、古い時刻表パターンから派生したものである可能性があるため、交通機関に直接確認する必要があります。」などの文言を使って、より慎重になりました。
また、おすすめのレストランについては「営業時間や予約の空き状況は個別に確認できていない」と警告を付けた。
これらの警告のおかげで、応答の信頼性は大幅に向上したように見えました。洗浄サイクル中に不快な音を発する騒々しい食器洗い機を修理する理論的必要性の指標を使用したときにも、同じことが起こりました。通常であれば、私は一つの結論を導き出し、一つのことを問題として想定することから始まると主張します。
敵対的な監査人の指示が追加されたことで、雰囲気は変わりました。 ChatGPTは、「ポンプの故障が考えられるが、この症状はインペラの近くに引っかかった破片やスプレーアームのコンポーネントの緩みによって引き起こされる可能性もある。コンポーネントの故障を想定する前に、さらなる検査が必要だろう。」と書いている。
幻覚の回避
簡単な家庭の質問でも、プロンプトが用意されていると評価しやすくなります。私のオフィスに空気清浄機が十分な大きさかどうかを ChatGPT に尋ねました。
チャットボットは、それが理想的であるとすぐに宣言する代わりに、「カバー範囲の推定値は、天井の高さ、フィルターの状態、実際の空気の流れによって異なります。」と答えました。この慎重な言葉遣いのおかげで、マーケティング上の主張を実験室での測定のように扱うことができなくなりました。
ただし、警告によって幻覚が魔法のように完全に消えるわけではありません。 ChatGPT は依然としてコンテキストを読み間違えたり、古い情報に依存したり、曖昧な指示を誤解したりする可能性があります。しかし、彼は自分の推論の弱点について、より明らかになりました。 AI に自分自身を信頼できないように教えることは、最終的にはまさに AI をより信頼できるものにすることになるかもしれません。
Google ニュースで TechRadar をフォローしてください e 私たちを優先情報源として追加してください 私たちのニュース、解説、専門家の意見をフィードに直接配信します。

あらゆる予算に最適なビジネス ノートパソコン