最近、経営陣から「うちもAI導入したい」「ChatGPTみたいなの使えないの?」と言われることが増えた情シス担当者は多いのではないでしょうか。文書作成の効率化や会議の要約、メール業務の支援など、バックオフィス業務でのAI活用に対する期待は高まる一方です。
しかし、候補となる汎用AIツールを調べてみると、セキュリティ面で大きな差があることがわかります。特にMicrosoft Copilot for Microsoft 365については、「Microsoft製品だから安心」と思い込んでいる企業が多いのが現状ですが、実際には深刻なセキュリティリスクが明らかになっています。
米国下院議会が下したCopilotへの「NO」
まず衝撃的な事実から。2024年3月、米国下院議会がMicrosoft Copilotの使用を全面禁止しました。
下院の最高管理責任者Catherine Szpindorは、「Houseデータを非承認のクラウドサービスに漏洩させる脅威がある」として、Copilotを「House使用に対して未承認」と認定。全てのHouse Windowsデバイスからの削除・ブロックを指示したのです。
政府機関がここまで明確にセキュリティリスクを理由に使用禁止するのは異例のことです。これは単なる「念のため」の措置ではなく、具体的な脅威を認識した結果と考えるべきでしょう。
Copilotの致命的な権限管理問題
では、具体的に何が問題なのでしょうか。最新の調査データが衝撃的な実態を明らかにしています:
- 企業の機密ファイルの15%以上が過度な共有、誤った権限、不適切な分類によりリスクにさらされている
- 企業の機密データの3%以上が本来共有すべきでない範囲に組織全体で共有されている
- 平均的な組織では802,000ファイルが過度な共有により危険な状態
Microsoft Copilot for Microsoft 365の最大の問題は、ユーザーがアクセスできるすべてのデータにCopilotもアクセスできるという仕様です。つまり、SharePointやOneDriveで権限設定がゆるくなっているファイルは、Copilotを通じて意図しない相手に公開される可能性があります。
実際に、給与情報や機密の法的文書、企業戦略資料などが、Copilotの回答を通じて本来アクセス権のない従業員に見えてしまった事例が報告されています。
金融機関でも進む慎重な検討
金融業界では積極的な検討が進んでいます。りそなホールディングスが2025年5月にMicrosoftと戦略的パートナーシップを締結するなど、前向きな動きも見られます。
しかし、一方でガートナーが2024年に実施したセキュリティ担当者向け調査では、Microsoft 365 Copilotに対する懸念として以下が上位に挙がりました:
- 利用拡大による情報漏えいが不安
- アクセス権付与が面倒・煩わしい
- 機械的なデータアクセスによる意図しない情報公開
- サイバー攻撃の温床となるリスク
つまり、検討は進んでいるものの、セキュリティ専門家ほど慎重になっているのが実情です。
実は品質も微妙なCopilot
セキュリティ以外にも、回答品質の問題があります。
TrustpilotでのMicrosoft Copilotの評価は2.3星(66件のレビューに基づく)と低く、企業での調査でも総合印象が5点満点中3.1点という結果が出ています。
「具体的な機能を実行する際に実用的に役に立たない」「新バージョンで以前のチャット情報を記憶しなくなり、より愚かになった」といった厳しい評価も多数見られます。
一方、Claudeの圧倒的なセキュリティ優位性
対照的に、AnthropicのClaudeは「Constitutional AI」という独自の安全対策技術を採用し、セキュリティを根本から重視した設計になっています。
取得済みの主要セキュリティ認証
- SOC 2 Type 2レポート
- ISO 27001証明書
- AWS Bedrockによる閉域接続対応(大企業向け)
倫理的AI設計の採用
Claude最大の特徴は「Constitutional AI」です。これは単なるフィルタリングではなく、AI自体が倫理的で安全な判断をするよう根本から設計されたシステムです。
有害な出力を事後的にブロックするのではなく、そもそも有害な出力を生成しない仕組みになっているため、機密情報の意図しない漏洩リスクが大幅に低減されています。
※Claude使ってると、問題ないと考えた質問に対して、うっかりClaudeがガードレール(倫理などで設定してる語句や機密情報だと判断したもの)に触れるものを出力しそうになって、それに気付いたClaudeが質問そのものをクリアして無かったことにしてしまう事象が結構あります。ツール作らせていると、例えサンプルのAPIキーでも出力した途端にクリアしてきます。メタ認知の機能を搭載してます。それほどセキュリティ的に堅牢なAIサービスです。
透明性の高いデータ処理
Claude Enterpriseでは、顧客データがAIモデルのトレーニングに使用されないことが明確に保証されており、データの処理方法についても透明性が確保されています。
コード生成AIは別の話
なお、今回比較しているのは汎用ChatAI(文書作成、要約、質疑応答などの業務支援)です。
コード生成AIについては別カテゴリーとして考える必要があります:
- Claude Code: 開発者向け、セキュリティチェック機能付き
- GitHub Copilot: Microsoft傘下、開発者向け
- Microsoft Copilot: 一般業務向け(今回の比較対象)
情シスとして社内のバックオフィス業務や経営陣の利用を想定する場合は、汎用ChatAIの比較が重要です。
現実的な選択として
Microsoft 365を既に導入している企業では「せっかくだからCopilotも」と考えがちですが、セキュリティリスクを考慮すると慎重な判断が必要です。
特に以下のような企業では、Claudeの検討を強く推奨します:
- 機密情報を多く扱う企業
- 金融・医療・法律などの規制業界
- 情報漏洩時の影響が甚大な企業
- セキュリティコンプライアンスが厳格な企業
一方で、Claude Enterpriseは価格が非公開(要相談)となっているため、予算との兼ね合いも重要な検討要素になります。
まとめ
汎用AI導入において、「Microsoft製品だから安心」という思い込みは危険です。米国政府機関での使用禁止や権限管理の根本的問題を踏まえると、セキュリティを重視する企業にはClaudeが現実的な選択肢といえるでしょう。
情シス担当者として経営陣への提案を行う際は、目先の利便性だけでなく、中長期的なセキュリティリスクとその対策コストを含めた総合的な判断が求められます。
AI導入は避けられない流れですが、「どのAIを選ぶか」で企業の未来が大きく変わる可能性があることを、しっかりと経営陣に伝えていきたいところです。


コメント