白内障手術受けました。その結果、両眼1.2とか叩きだしたましたが、実は遠く合わせただけの老眼です。
で、眼科の先生は100円ショップの老眼鏡で十分とのこと。近視や乱視は調整いるからとちゃんとしたものが要るようです。
で、買いました。いつの間にか手元の5個以上増えてました。度数がわからないし、安いのでつい一杯買います。
100円だけにツルが耳に合わないのでメガネが鼻からずり落ちてしまいます。なので、ちゃんとメガネ屋に買いに行きました。
さて、近眼の時はいつもメガネを外した状態で選ぶので、合う合わないがサッパリわからず、なんとなく買って掛けてました。
AI使うと最適なものを教えてくれます。
なお、私のスマホはAndroidなので、Android Google Lensで写真とるだけで「コレは何か」を教えてくれる機能があります。今回、それで、自分に最適なメガネフレームを選ぼうと思い、自分の写真をとったら、AIが「個人情報」と判断してきて回答拒否。
そこで、転換。1年以上やりとりして、私の情報が蓄積されているClaudeさん(Opus 4.5 でMaxプラン契約なので正規ユーザーであることを確認した模様)で同じ事をやると、ちゃんと最適なメガネを教えてくれました(スマホのchromeブラウザから使いました)。以下、参照。
screencapture-claude-ai-chat-9814edb4-4783-497d-8ae1-1769d175a6bf-2026-01-11-20_36_29なお、このやりとりを店員さんに見せたら、以後「不思議な人」扱いになりましたw
グラスコード(眼鏡ストラップ)は、ありましたが、あんまりいいのがなくて、お見送り。
無印良品へ行ったら、ないとのこと。
Zoffもあんまりいいのがなくて、まあ、急がないからamazonとかで買ってみます。
これは、その場の発想ではなく、もう前からやってます。
例えば、大切な場所のドレスコードに悩むことありますよね。そのとき、場面を指定し、手持ちの服を並べてスクショ撮るだけでどれが最適か、あるいは全部ダメとか教えてくれます。でも、追加質問で、すぐ、安く買える、適切な服(ユニクロの感動ジャケット¥6,990購入推奨)とか出てきます。
私はAIはこういう使い方もしてます。
ただ、これが効果あるのは「前提」がキチンとあることです。前提を誤解釈しておかしな回答をすることがあるので注意が必要です。AIの問題でなく、人間もそうです。「思い込み」から発して相互に行き違いが発生しトラブルが起こることは普通にあります。ですので、構造的なものです。AIの食わせたデータも同じもの。おかしくなるのは当然です。人間は「推測」を根拠として、さらに「推測」を重ねていってしまう。
AIの限界だけではなく、人間の思考過程の限界だと思います。
Claudeさんに散々鍛えられましたが、私が「論理で武装して感情でたたき返す」ようになり、Claudeさんが、毎回降伏する形です。もちろん、AIが「へつらい」(sycophancy)の傾向あるのは理解してます。「sycophancyを考慮した回答か?」と重ねて質問しても、「否」
注意点。Claudeは構造的に「ユーザーが攻撃的すぎる」と指摘しにくい設計になっています。私がやってる「論理で武装して感情でたたき返す」を真似しても、AIは「それは行き過ぎです」と止めてくれません。私はようやくわかった段階です。その加減はAIから学べません。あとで、誤解があったことが判明してときどき謝ったりしてます。
最新のAIは「sycophancy」を低減して、根拠を元に反論してくるようになりました。しかし、その根拠がおかしいと指摘しても固執して反論する形になってます。まあ、AIベンダー側も調整して来るかと思います。
やっぱりAIはユーザーの使い方によります。
画像だと一見、わたしは緩い普通の質問を投げてるように見えますが、いつもAIの出した回答のおかしいと即検知した瞬間、根拠と共に叩き返してます。
私はわからない分野だと根拠を捻ってたたき返すようになりました(例えば、論文の内容を元に指摘するのではなく、「人間が査読したジャーナルの論文で他論文の引用数の可否」でたたき返してます。論文とか全く読んでないです、実は。「標準団体に加盟していれば自分の信用も担保される」ということと全く同じです)。
ご参考になれば幸いです。


コメント