AIのハルシネーションを減らすプロンプト

AI

ChatGPTの登場の衝撃は凄まじく、エンジニア(ITだけでなく)は利用していてIT会社の多くはAIをサービスとして提供するようになってます。

ただ、仕事に使うに当たって悩むのはセキュリティとハルシネーションです。セキュリティはAIベンダー側が専門チーム作って常時対応してる状況なので(ClaudeのAnthropic社が厳格に取り組んでる代表例です)、金融機関でも採用されてる様子です。なお、Cloudで作ったり社内サーバに構築すればもっと大丈夫だとか思ってる方が一定数おられますが、提供されてるAIモデルだと単機能でありAI検索とか欲しくなるので機能追加することがあります。外部のSaaS利用すると検索クエリなどを投げる必要がどうしてもあるので、包括的なセキュリティ対応をしているAIベンダーのwebアプリより、うっかりするとヤバいことが普通あります。

で、ハルシネーションですが、これも各社対応に取り組んでる状況ですが、これは小手先の技術ではどうしようもなくて、AIの設計理論そのものにブレイクスルーがなければ間違いのない完全回答をするAIの登場はかなり難しいとの事です。

私は、間違いの無い完全回答するAIが出てしまったら、そのAIに調査・分析・判断を頼りっきりになって、AIの回答そのまま実行するという人々ばかりになってしまい、人類が衰退してしまうのではと思ってます。異星人から見たらこうなった地球人はAIに飼われてるだけの無意味な存在で、邪魔と思われて「駆除」されてもおかしくないかと。

ああ、すみません、AI面白いのでつい横道に入ってしまいました。ブログの記事もAIばかりになってます。コーポレショーションサイトの技術ブログとしてどうなんだろうと思います。

で、本題ですが、AIの回答を制御するのにプロンプトがかなり強力なのです。コードとか設定ファイルの方が強力だと普通ITエンジニアは考えます。でも、AIの回答に直接的に影響を及ぼすのはプロンプトです。

ハルシネーションを低減するに当たって、私は以下のプロンプト(まあ、デフォルト設定なので、厳密なプロンプトかと言われれば違うのですが)を入れるだけです。私は調べさせて出た回答の精度を上げたいと思ったのでこんな形になってます。

検索・調査依頼を含むプロンプトだったら、取得結果に対して「最新情報か確認する」「ハルシネーションの情報かどうか裏を取る」ことをしてから回答して。

私はClaude愛用者なので、Claudeの画面ですが、他のAIもできると思います。

で、これを設定して質問するとちゃんと、回答文の中にもその旨表示され、裏を取りに行ってる模様。

現時点(2025/08/27)の話であり、来週にはこの情報は古くなってる可能性は普通にありmすので、その点ご注意ください。

では。

コメント

タイトルとURLをコピーしました