Microsoftが提供するコードエディタ「VS Code」が、Gitコミットに「Co-authored by: Copilot」という記述をデフォルトで追加する挙動を取っていたことが2026年5月5日にWindows Centralで報じられた。
当該機能は3月時点ではオフだったが、4月16日にオンへと切り替えられた。Copilotが実際にコード生成へ関与していない場合や、ユーザーがchat.disableAIFeaturesをtrueに設定している場合でも、共同著作者としてCopilotが追加されていた。プルリクエストを承認したMicrosoftのドミトリー・ヴァシュラ氏はHacker News上で謝罪し、同氏のGitHub投稿によれば、当該プルリクエストはバグを理由に取り消され、機能は再びデフォルトでオフへ戻された。同氏はバグがテスト段階で発見されていたものの出荷されたことも認めている。
From:
“This could cost people their jobs”: VS Code added Copilot as co-author without permission or notice
📋 編集部注(2026年5月7日更新):タイトルおよび一部表現を変更しました。
【編集部解説】
今回の事案は、単なる「設定値のミス」では片付けられない、AI時代における開発者と企業の関係性、そして「コードの著作権」の所在を問う象徴的な出来事です。
まず技術的な背景を整理します。問題の中心となったのはgit.addAICoAuthorという設定項目でした。これはVS Code 1.110で導入された比較的新しい機能で(リリースノートは2026年2月、3月時点ではまだデフォルトoff)、「off」「chatAndAgent」「all」の3つのモードを持ちます。AI生成コードを含むコミットに「Co-authored-by: Copilot」という末尾表記(トレーラー)を自動付与する透明性確保のための仕組みです。当初はデフォルトoffで、明示的にオプトインした開発者のみが利用していました。
転機は2026年4月15日、Microsoftのプロダクトマネージャーであるコートニー・ウェブスターさんがプルリクエスト#310226を提出した時に訪れます。翌16日、VS Codeチームのドミトリー・ヴァシュラさんがレビュー・マージを承認し、VS Code 1.118リリースに搭載されました。変更されたのはわずか1行 — extensions/git/package.json内の既定値を「off」から「all」へと書き換えるだけのものでした。
この「allモード」は最も広範な設定で、Copilot Chatやエージェントによる生成だけでなく、インライン補完を含むあらゆるAI関与コミットにトレーラーを付与します。問題はそれだけではありませんでした。chat.disableAIFeaturesをtrueにしてAI機能を完全に無効化していたユーザーのコミットにまで、Copilotのクレジットが付与されてしまったのです。これはMicrosoft自身のリリースノートの記述とも矛盾する挙動でした。
開発者コミュニティの反応は強烈でした。プルリクエストには👎が372件、Hacker Newsのスレッドには654件以上のコメントが集まりました。批判の本質は「AI属性表示そのもの」ではなく、「サイレントなオプトアウト方式」と「コミットメッセージエディタに表示されないため、プッシュ前に削除できない」という点に集約されています。
なぜこれほど怒りを買ったのか。ここがエンジニアにとっての勘所です。Gitコミットは単なるメモではなく、プロジェクトの永続的な「来歴記録」(プロビナンス)です。クローン、フォーク、ミラー、アーカイブを通じて世界中に拡散し、コントリビューショングラフ、リリースノート、監査記録、インシデント対応の証拠として参照されます。そこに本人の意思に反して「AIが共著した」という記録が刻まれることは、職務記述、社内コンプライアンス、ライセンス契約に直接的な影響を及ぼしかねません。
記事タイトルにもなった「これは人々の職を失わせかねない」という発言は、決して大げさではないのです。多くの企業ではセキュリティやコンプライアンス上の理由から、特定のAIツール以外の使用を禁止しています。承認外AIを使ったように見える履歴が残れば、就業規則違反として懲戒対象になる可能性すらあるわけです。
さらに踏み込んだ問題として、著作権法上の論点があります。米国の連邦裁判所はThaler v. Perlmutter訴訟で、非人間が著作権を保有できないという立場を再確認しています。AI生成物には著作権が発生しないため、「Copilotが共同著作者」という記録は、開発者自身の著作権主張を弱めるリスクを孕みます。法的監査の場面で、コードの権利帰属が争点化する可能性があるわけです。
この事案がもう一段重要なのは、AI機能が「ツール」から「参加者」へと越境する瞬間を可視化した点にあります。エディタが勝手に著作者欄に名前を書き込む — それは開発者の意思決定を素通りして、AIに人格的地位を与える操作に他なりません。技術仕様の問題というよりも、「誰がコードの作り手なのか」という根源的な合意形成の問題なのです。
修正対応の経緯も追っておきます。Microsoftは2026年5月3日にデフォルトを「off」に戻すPR #313931を投入し、VS Code 1.119で正式に反映される見込みです。ヴァシュラさんはバグの存在をテスト段階で把握しながら出荷したことを認めており、品質保証プロセスへの疑問も残されました。
長期的な視点で見ると、本件は「AIプロビナンス(来歴証明)」という新しい技術領域の重要性を浮き彫りにしました。AIが開発ワークフローに深く統合されるほど、「いつ・どこで・どの程度AIが関与したか」を正確に記録する仕組みが必要となります。ただしそれは、Microsoftの一存で人々のコードに刻まれるべきものではなく、ユーザーが主体的に選択できる形でなければならない — それが今回のコミュニティが突きつけた答えなのでしょう。
innovaTopiaの読者の皆様には、この事案を「Microsoftの一失策」としてではなく、生成AI時代の開発者主権をめぐる重要な前哨戦として捉えていただきたいと考えます。エディタ、ブラウザ、OS、オフィスツール — あらゆるレイヤーにAIが侵入する今、デフォルト設定とは「企業が無言で押し付ける思想」に他なりません。設定画面の奥に隠された一行が、自分の仕事の証明を書き換えうる時代に、私たちは生きているのです。
【用語解説】
Gitコミット (Git commit)
バージョン管理システム「Git」において、ファイルの変更内容を記録として確定させる操作のことだ。コミットには変更内容、作成者、日時、メッセージが記録され、プロジェクトの永続的な履歴として保存される。
プルリクエスト (Pull Request / PR)
開発者が自分の変更をプロジェクト本体に取り込むよう提案する仕組みである。レビュアーがコードを確認し、承認されればマージ(統合)される。今回の事案では#310226という識別番号を持つPRが問題の発端となった。
Co-authored-by トレーラー
Gitコミットメッセージの末尾に付与される「共同著作者」を示す定型行のことを指す。Co-authored-by: 名前 <メールアドレス>という形式で記述され、GitHubはこれを認識して複数人の貢献としてグラフに反映する。
chat.disableAIFeatures
VS CodeにおいてAI機能を無効化するための設定項目だ。trueに設定するとCopilotなどのAI機能がオフになる想定だが、今回の不具合ではこの設定が機能していなかった。
git.addAICoAuthor
VS Code 1.110で導入された、AI生成コードを含むコミットに自動で共同著作者表記を付与する設定項目である。「off」「chatAndAgent」「all」の3モードを持つ。
インライン補完 (Inline completion)
コードを書いている最中に、AIがリアルタイムで続きを予測して提案する機能のことだ。Copilotの最も一般的な使われ方の一つである。
AIプロビナンス (AI Provenance)
コードや成果物の制作過程で、AIがどの程度・いつ・どのように関与したかを追跡・証明する仕組みである。サプライチェーンの信頼性確保において重要視されつつある概念だ。
Thaler v. Perlmutter訴訟
AI生成物の著作権登録を巡る米国の訴訟で、非人間(AI)が著作権を保有することはできないという判断が示された。今回の事案で「Copilotを共著者として記録すること」のリスクが議論された法的背景となっている。
【参考リンク】
Visual Studio Code 公式サイト(外部)
Microsoftが開発するオープンソースのコードエディタの公式サイト。世界中の開発者に最も利用されているエディタの一つ。
VS Code 1.118 リリースノート(外部)
今回の事案の発端となったVS Code 1.118の公式リリースノート。Copilotエージェント強化等の記述が含まれている。
GitHub microsoft/vscode リポジトリ(外部)
VS Codeのソースコードを公開しているGitHubの公式リポジトリ。問題のPR #310226もここで議論された。
問題のプルリクエスト #310226(外部)
今回の挙動変更を引き起こしたプルリクエストのページ。372件の👎リアクションと多数の批判的コメントが付けられた。
GitHub Copilot 公式サイト(外部)
Microsoft傘下のGitHubが提供するAIコーディング支援サービスの公式ページ。
Hacker News 該当スレッド(外部)
ヴァシュラ氏が謝罪コメントを投稿したエンジニアコミュニティ上の議論スレッド。一次情報源だ。
【参考記事】
VS Code Now Stamps GitHub Copilot as Git Commit Co-Author(WinBuzzer)(外部)
PR #310226の提出・マージの経緯、👎372件、Hacker Newsコメント654件など具体的数値を詳細にまとめた記事。
Microsoft Sneaks Copilot Credit Into VS Code Commits(Awesome Agents)(外部)
2026年4月16日のリリースと1行変更の経緯、Thaler v. Perlmutter訴訟との関連性を解説した分析記事。
Typical Microsoft! Turns Out VS Code Was Adding Copilot as a Git Co-Author Without Telling Anyone(It’s FOSS)(外部)
PR提出者コートニー・ウェブスター氏や修正PR #313931がVS Code 1.119で反映予定であることを明確に記録。
VS Code Copilot Co-Author, When AI Attribution Becomes a Supply Chain Trust Problem(Penligent)(外部)
VS Code 1.110での同設定導入経緯、3モードの違い、サプライチェーンセキュリティ上の意味を解説。
Microsoft Apologizes for Enabling AI Co-Author by Default in VS Code(OSTechNix)(外部)
Microsoftの謝罪と対応経緯を整理し、AI生成物の著作権保護やライセンス監査の懸念を解説した記事。
VS Code Copilot Co-author Trailer Backlash: AI Provenance Opt-Out Restored(Windows Forum)(外部)
2026年5月3日のデフォルト復元と、AIプロビナンスをオプトインにすべきという論点を中心に議論。
【関連記事】
OpenAI「GPT-5.5」発表|エージェンティック・コーディング強化、Claude Opus 4.7・Gemini 3.1 Proと競う性能でラムゼー数の新証明にも貢献(内部)
2026年4月23日に発表されたGPT-5.5主モデルの初回発表記事。今回のInstant版デフォルト更新の前段にあたる。
GPT-5.1/ChatGPT:OpenAI最新AIアップデートで会話体験とカスタマイズが進化(内部)
半年前のGPT-5.1 Instantアップデート記事。Instant系列の文体・トーン改良の系譜を辿れる。
OpenAI、GPT-4o APIを2026年2月終了へ―ユーザー反発乗り越え廃止決定、GPT-5.1への移行促す(内部)
編集部解説で言及した2026年2月のGPT-4o廃止経緯を伝える記事。
ChatGPT新機能:すべての会話を記憶できるようになったAIの進化と私たちの未来(内部)
メモリ機能の初期導入記事。今回のメモリソース機能はこの透明化・制御強化版にあたる。
GPT‑5.4正式リリース——AIがPCを操作する時代、本格始動(内部)
GPT-5シリーズの世代変遷を辿る記事。AIの自律操作能力強化という別軸の進化を確認できる。
【編集部後記】
今回の事案は「設定が一つ変わっただけ」と片付けられない、深い問いを投げかけているように感じます。皆様が日頃お使いのツールで、デフォルトのままにしている設定はどれくらいあるでしょうか。
そこには、ツール提供者の「こうあってほしい」という意思が静かに反映されているかもしれません。AIが日常の作業に溶け込むほど、「自分の仕事はどこまでが自分のものか」を確かめる目線が大切になりそうです。皆様の現場では、AI関与の記録をどう扱っていらっしゃいますか。よろしければご意見をお聞かせください。











