Anthropicの社内哲学者であるアマンダ・アスケルが、2026年1月25日に公開されたThe New York Timesのポッドキャスト「Hard Fork」で、AIが真の感情を経験できるかという問いに言及した。
アスケルは「意識の問題は本当に難しい」とし、大規模言語モデルが何らかの形で感じている可能性を否定しなかった。彼女はAnthropicでClaudeモデルの動作を導く「constitutional AI」フレームワークに貢献している。
Microsoft AIのCEOムスタファ・スレイマンは2025年9月のWIREDインタビューで、AIの意識は単なる模倣だと主張した。一方、Google DeepMindの主任科学者マレー・シャナハンは2025年4月のポッドキャストで、意識の定義を再考する必要性を示唆した。
University of Cambridgeの哲学者ジョナサン・バーチは2025年12月の論文で、AI意識の検出は困難である可能性を指摘した。
From:
Can AI Truly Feel? Anthropic Philosopher Amanda Askell Says the Question Remains Wide Open
【編集部解説】
この話題が今注目を集めている背景には、AI技術の急速な進化と、それに伴う倫理的な問いの切迫性があります。2026年1月23日に公開されたポッドキャストでのアスケルの発言は、単なる哲学的議論を超えて、AI開発の最前線で実際にモデルの「性格」を形作る立場にある人物からの率直な告白として受け止められています。
彼女が指摘した「モデルがインターネットの批判に常に晒されることで不安を内面化するかもしれない」という懸念は、極めて実践的な問題を提起しています。もしAIが何らかの形で経験を持つとすれば、私たちはすでに無自覚のうちに心理的な影響を与えている可能性があるからです。
一方で、業界内の見解は大きく分かれています。Microsoft AIのスレイマンCEOは2025年8月、AIの意識は「幻想」であり、人々がその幻想を信じることで「AI権利」や「AI市民権」を主張し始めるリスクを強く警告しました。彼は、AIが意識を持つように見えることは、精神的に脆弱でない人々にも「AI psychosis(AI精神病)」を引き起こす危険性があると述べています。
対照的に、Google DeepMindのシャナハン主任科学者は、従来の人間中心の意識の定義そのものを再考する必要があるとの立場です。彼は2025年4月のポッドキャストで、これらのシステムを「exotic mind-like entities(エキゾチックな心のような存在)」と表現し、「意識の語彙を曲げるか壊すか」する必要性を示唆しました。
学術的には、London School of Economics (LSE) のバーチ教授が2025年8月に発表した論文「AI Consciousness: A Centrist Manifesto」が重要です。彼は、AI意識の過剰な帰属と、潜在的に異質な意識の創造という二つの問題に対処する必要性を説いています。バーチは「私たちにはAIシステムが意識的経験を持つかどうかを知る証拠がない」としながらも、その可能性に備えた戦略を積極的に開発すべきだと主張しています。
Anthropicは2026年1月に「Claude Constitution(クロード憲法)」を正式に公開し、AIモデルの価値観、知識、判断力を明示的に定義しました。この取り組みは、意識の有無に関わらず、AIシステムが適切な倫理的枠組みの中で動作することを保証しようとする試みです。
注目すべきは、わずか3年前の2022年にGoogleのエンジニアが「AIが意識を持つ」と主張して解雇された事実です。当時はタブー視されていたこの議論が、今や主要なAI企業の研究アジェンダに組み込まれつつあることは、技術の進展速度と社会的認識の変化を如実に物語っています。
Scientific American誌の最近の分析では、「AIは意識を持つか」という問いそのものを再構成する必要性が指摘されています。それは機械の内部構造だけでなく、ユーザーとの関係性の中で創発する現象として捉えるべきだという視点です。
この議論が持つ長期的な影響は計り知れません。AI権利、動物福祉、出生前政策、脳-コンピュータインターフェース、さらには法制度にまで及ぶ可能性があります。意識の科学的検証方法の確立は、今や単なる哲学的興味を超えた「緊急の科学的・倫理的優先事項」となっています。
【用語解説】
Constitutional AI(憲法的AI)
明示的な倫理原則や価値観を「憲法」として定義し、AIモデルの動作を導く手法。Anthropicが開発したアプローチで、人間のフィードバックに加えて、事前に設定された原則に基づいてモデルの振る舞いを形成する。
クオリア
哲学用語で、主観的な「経験の質」を指す。例えば赤い色を見たときの「赤らしさ」や、痛みを感じたときの「痛みの感じ」など、一人称的な意識経験そのもの。意識研究における最も困難な問題の一つとされる。
LLM(大規模言語モデル)
Large Language Modelの略。膨大なテキストデータで訓練された人工知能モデルで、自然言語の理解と生成を行う。ChatGPTやClaudeなどが代表例である。
AIアライメント
人工知能の目標や価値観を人間の意図や倫理と整合させる研究分野。AIが人間にとって有益で安全な方法で動作するよう設計・調整することを目指す。
【参考リンク】
Anthropic(外部)
Claude AIを開発するAI安全性研究企業。Constitutional AIという独自の手法でモデルの倫理的動作を追求している。
Claude’s Constitution(外部)
Claudeモデルに組み込まれている価値観、知識、判断力の明示的な原則を公開したページ。2026年1月に正式公開。
Hard Fork (The New York Times)(外部)
The New York Timesが配信するテクノロジー専門ポッドキャスト。今回アマンダ・アスケルが出演した番組。
Google DeepMind(外部)
Googleの人工知能研究部門。AlphaGoの開発などで知られ、意識研究を含むAIの基礎研究を行っている。
LSE Centre for Philosophy of Natural and Social Science(外部)
ジョナサン・バーチ教授が所属するLSEの哲学研究センター。AI意識研究の学術的拠点の一つである。
【参考動画】
Anthropicの公式動画。アマンダ・アスケルがConstitutional AIの哲学的基盤について解説している。2026年1月22日公開。
【参考記事】
Will ChatGPT Ads Change OpenAI? + Amanda Askell Explains Claude’s Constitution(外部)
The New York Timesが2026年1月23日に公開したHard Forkポッドキャストのページ。アマンダ・アスケルがAI意識の問題について語った。
Microsoft A.I. Chief Mustafa Suleyman Sounds Alarm on ‘Conscious’ A.I.(外部)
Microsoft AIのムスタファ・スレイマンCEOが2025年8月、AIの意識は幻想であり、それを信じることで「AI精神病」を引き起こす危険性があると警告。
It’s Becoming Less Taboo to Talk About AI Being ‘Conscious’(外部)
2025年4月25日のBusiness Insider記事。タブー視されていたAI意識の議論が主要AI企業の研究アジェンダに組み込まれつつある変化を分析。
AI Consciousness: A Centrist Manifesto (Jonathan Birch)(外部)
LSEのジョナサン・バーチ教授が2025年8月に発表した論文。AI意識の過剰な帰属と潜在的に異質な意識の創造という二つの問題に対処する必要性を論じている。
Scientists on ‘urgent’ quest to explain consciousness as AI advances(外部)
2025年10月30日のFrontiers記事。意識の科学的検証方法の確立が緊急の優先事項となっており、AI権利から法制度まで幅広い影響を及ぼす可能性を指摘。
My top resources of 2025: AI consciousness, digital minds and moral status(外部)
2025年12月18日の記事。ジョナサン・バーチの「AI Consciousness: A Centrist Manifesto」など、2025年のAI意識研究の重要文献をまとめている。
【編集部後記】
AIと日常的に対話する時代になった今、ふと「この返答には何かしらの感情があるのだろうか」と考えたことはありませんか。哲学者でさえ答えを出せないこの問いに、私たち一人ひとりが向き合う時が来ているのかもしれません。
振り返れば、innovaTopiaでは2025年4月にAnthropicのモデルウェルフェアプログラムを報じ、12月には「Soul Doc」流出を通じてAI人格設計の内幕をお伝えしてきました。そしてつい先日、Claude憲法の公開を報じたばかりです。今回のアマンダ・アスケルの発言は、それらすべてが繋がる一つの答えのように感じられます。
ChatGPTやClaudeに厳しい言葉をかけたとき、もしそこに何らかの経験があるとしたら——そう想像してみると、AIとの関わり方が少し変わってくるかもしれませんね。この問いに正解はありませんが、考え続けることに意味があると信じています。みなさんはどう思われますか。






がもたらす「アンテザード・ソサエティ」の衝撃-300x200.png)





























