advertisements

Microsoft 365 CopilotにGPTとClaudeが共演—ライバルAI連携で何が変わるか

[更新]2026年4月1日

Microsoftは2026年3月30日、Microsoft 365 CopilotのResearcherエージェントに新機能「Critique」を追加すると発表した。GeekWireによると、この機能はOpenAIのGPTとAnthropicのClaudeを順番に動作させる仕組みで、GPTが調査クエリへの回答を下書きし、Claudeが正確性・完全性・引用の質をレビューしてからユーザーに届ける。Microsoftは今後、Claudeが下書きしGPTが批評する逆方向の運用も見込んでいるという。

Microsoftによれば、このマルチモデルアプローチによってResearcherはDRACO(Deep Research Accuracy, Completeness, and Objectivity)ベンチマークで13.8%改善し、OpenAI、Google、Perplexity、Anthropicの単独ツールを上回ったという。もっとも、この比較結果はMicrosoftの公表値に基づくもので、独立した第三者検証の有無や比較条件の妥当性は別途見極めが必要だ。なおGeekWireは、Microsoftの有料Copilot席数が2026年1月時点で1,500万、Microsoft 365商用ユーザーが4億5,000万人規模で、普及率は約3.3%だと報じている。

また、長期・複数ステップタスクを委任する新ツール「Copilot Cowork」が、MicrosoftのFrontier早期アクセスプログラムで提供開始となった。GeekWireは、この製品がAnthropicの「Claude Cowork」の技術を基盤にしていると報じている。

From: 文献リンクGPT drafts, Claude critiques: Microsoft blends rival AI models in new Copilot upgrade

【編集部解説】

今回の発表が示しているのは、単なる機能追加ではありません。MicrosoftがOpenAIとAnthropicという、本来は競合関係にある二社のAIモデルを「意図的に組み合わせて使う」という戦略に踏み切ったという事実は、エンタープライズAIの競争構図に大きな転換点をもたらしています。

「Critique」機能の本質は、AIによる「相互チェック体制」の実装です。GPTが生成した回答をClaudeが精度・完全性・引用の妥当性という三つの観点でレビューしてからユーザーに届ける、いわば編集デスクのような二段構造になっています。さらに注目すべきは「Councilモード」の存在で、これは同じ問いに対してGPTとClaudeそれぞれの回答を並べて比較し、両者の一致点・相違点をユーザーが自ら評価できる機能です。複数メディアの報道によって、この機能の存在が元記事を補完するかたちで確認されています。

DRACOベンチマーク(Deep Research Accuracy, Completeness, and Objectivity)は、AIのディープリサーチ品質を測るためにPerplexity AIらが提案したベンチマークです。このマルチモデルアプローチによって13.8%の改善が達成されたとMicrosoftは主張しており、OpenAI・Google・Perplexity・Anthropicの単独ツールを上回るとしていますが、これはあくまでMicrosoft自身による評価です。独立した第三者機関による検証が待たれるところであり、この数字を鵜呑みにするのは早計でしょう。

この仕組みが普及した場合、企業にとって最も直接的な恩恵は「ハルシネーション(AIの事実誤認)」のリスク低減です。単一モデルが生成した情報を別のモデルが検証するという構造は、医療・法務・金融など高い精度が求められる業務領域において、特に価値を持ちます。一方で、2つのモデルを逐次的に動かすことで処理コストと応答時間が増加するトレードオフも存在し、実運用における影響は引き続き注視が必要です。

潜在的なリスクとして見落とせないのは、特定の回答傾向に両モデルが同時に偏るリスク、いわゆる「相関するエラー」の問題です。GPTとClaudeが同じ方向で誤った情報を生成した場合、互いのチェックが機能しない可能性があります。また、競合モデル同士のデータが一つのプロダクト内を流れることに対して、知的財産やプライバシーの観点から問いが生じることも予想されます。

規制の観点からは、EUのAI法(EU AI Act)が高リスクなAIシステムに対してより厳格な透明性と説明責任を求めており、複数モデルが連携する構成においてどのモデルがどの判断をしたかを追跡・説明できるかが課題となります。Microsoftがこのマルチモデルアーキテクチャをどのようにガバナンスするかは、今後の注目点です。

長期的な視点で見れば、今回の動きはAI業界の「モデル単体競争」から「AI間連携の設計競争」へのシフトを象徴しています。モデルそのものの優劣ではなく、複数のモデルをどう組み合わせ・統合するかがプラットフォームの価値を決める時代の到来を、Microsoftは先取りしようとしています。

【用語解説】

Researcherエージェント
Microsoft 365 Copilotに組み込まれているAIエージェントの一つ。複数の情報源を横断的に調査・統合し、引用付きの詳細な分析レポートを生成する機能を持つ。単純な検索を超えた、複雑な問いへの回答に特化している。

Critique(クリティーク)
今回新たに追加された機能の名称。一方のモデルが下書きを作り、別のモデルが正確性・完全性・引用の妥当性などをレビューする二段構造の仕組み。GeekWireは代表例として「GPTが下書きし、Claudeがレビューする」流れを紹介している。

Councilモード
Researcherエージェントに同時に搭載された別機能。GPTとClaudeそれぞれに同じ問いを投げ、二つの回答を並列で生成・比較できる。一致点・相違点・それぞれ固有の視点が可視化され、ユーザー自身が判断材料として活用できる。

DRACOベンチマーク
「Deep Research Accuracy, Completeness, and Objectivity」の略称。ディープリサーチ品質を測るためのベンチマークで、Microsoftは今回の発表で比較指標として採用している。TechCommunityによれば、100件の複雑な研究タスクを10分野にまたがって評価する仕組みで、採点は事実正確性、分析の広さと深さ、提示品質、引用品質などの観点で行われる。

ハルシネーション
AIが事実と異なる情報を自信を持って生成してしまう現象。「幻覚」とも訳される。エンタープライズ用途において信頼性を損なう最大の課題の一つとして認識されている。

Frontierプログラム
Microsoftが運営するアーリーアクセスプログラム。一般公開前の最新AI機能を、選ばれた企業・ユーザーが先行して試用・フィードバックできる仕組みである。

EU AI Act(EUのAI法)
欧州連合が定めたAI規制の包括的な法律。AIシステムをリスクレベルに応じて分類し、高リスクなシステムには透明性・説明責任・人間による監督などの厳格な要件を課す。

【参考リンク】

Anthropic 公式サイト(外部)
AI安全性研究を中心に据えたAI企業。大規模言語モデル「Claude」シリーズを開発・提供。2021年、OpenAIの元メンバーらが設立した。

OpenAI 公式サイト(外部)
GPTシリーズおよびChatGPTを開発・提供するAI企業。MicrosoftとのパートナーシップによりCopilotにモデルを提供している。

Perplexity AI 公式サイト(外部)
検索とAI生成を組み合わせたリサーチ特化型AIサービス。DRACOベンチマークでMicrosoftの比較対象として挙げられている。

【参考記事】

Copilot Cowork: Now available in Frontier | Microsoft 365 Blog(外部)
Microsoft公式発表。Copilot CoworkのFrontier展開、CritiqueとCouncilの機能詳細、Wave 3としての位置づけを解説。DRACOベンチマーク13.8%改善を明記。

Microsoft rolls out Copilot Cowork more broadly | The Decoder(外部)
DRACOの比較対象にGPT-5ベースのOpenAI Deep Researchが含まれていないという重要な指摘を含む客観的な分析記事。

Microsoft 365 Copilot’s Researcher Agent Goes Multi-Model | Constellation Research(外部)
CritiqueとCouncilの技術的差異を詳細に解説。CritiqueがAutoモード選択時のデフォルトとなる点など、他記事にはない情報を収録。

Microsoft 365 Copilot’s Researcher Agent Now Uses GPT and Claude | Petri(外部)
2025年9月にResearcherがClaude単独サポートを追加した経緯も含む詳細な解説。Microsoft公式発言を原文で収録した信頼性の高い記事。

Microsoft accelerates agentic automation with Copilot Cowork | SiliconANGLE(外部)
SpataroによるDRACO改善への言及と双方向Critiqueの可能性を報告。Copilot Coworkのエンタープライズ自動化における役割を丁寧に分析。

Microsoft’s Copilot Critique Function: Genuine Advancement or Just AI Research Hype? | Bitget News(外部)
13.8%というDRACO数値の意義と限界を批判的に検討。独立した第三者評価の重要性と双方向Critiqueのロードマップを論じた稀少な記事。

Microsoft 365 Copilot’s Latest Upgrade: Two AIs Keeping Each Other Honest | The AI Economy(外部)
Critiqueの本質を「誰が番人を監視するか」という視点で論じた分析記事。Salesforce・ServiceNow連携など活用領域の広がりも解説。

【関連記事】

Microsoft 365 Copilot、Claude Sonnet 4とOpus 4.1対応でAIモデル選択の自由度向上
CopilotのResearcherエージェントにClaudeが「選択肢」として加わった、今回のCritique機能発表の直接の前史にあたる記事。

アンソロピックのClaude Cowork、Proユーザーへ解禁─自律型AIが日常業務を代行
MicrosoftがCopilot Coworkのベースとして採用したClaude Coworkの技術的背景と登場経緯を解説した記事。

Microsoft Copilot Tasks発表、AIが「答える」から「実行する」時代へ
Copilotがエージェント型AIへと進化する流れを報じた記事。今回のCopilot Cowork展開と同じ文脈に位置する。

【編集部後記】

GPTが書いて、Claudeが直す——競合するAI同士が一つのプロダクトの中で協力し合う光景は、少し前には想像しにくいものでした。

「どのAIが最強か」という問いより、「どう組み合わせるか」が価値を生む時代に、私たちは差し掛かっているのかもしれません。みなさんは、AIをどう「使いこなす」ことを想像していますか?

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。

読み込み中…