2024年7月、広島平和公園に100名以上の宗教指導者が集まりました。ユダヤ教、キリスト教、イスラム教、仏教、ヒンドゥー教の代表者たちです。バチカン教皇庁生命アカデミー、アラブ首長国連邦のアブダビ平和フォーラム、イスラエル首席ラビ庁も名を連ねました。そこに、Microsoft、IBM、Ciscoといったテック企業の関係者も加わりました。議題は「AI Ethics for Peace」、つまりAI倫理と平和でした。会議が開かれた場所は、1945年8月6日、人類が制御不能な技術の破壊力を目の当たりにした、その地でした。
1966年、「建国記念の日」が制定されました。すると日本のキリスト教界は、ほどなくこの日を「信教の自由を守る日」と呼び始めました。戦前、国家権力が「正しい信仰」を定義し、逸脱する者を排除した歴史があります。その記憶への反省が背景にありました。
そして今、私たちは新しい形の「統制」と向き合っています。国家権力ではなく、アルゴリズムという、目に見えない基準による統制です。
記憶の中の統制メカニズム
明治憲法第28条には「信教ノ自由」が記されていました。しかし政府は「神社は宗教にあらず」という論理を展開しました。神社神道を「国家の祭祀」と位置づけ、宗教ではないのだから信教の自由の対象外だとしたのです。実質的な国教化でした。
1935年、大本教への弾圧が始まりました。第二次大本事件と呼ばれます。治安維持法が宗教団体に適用された初の例でした。ダイナマイトで施設が跡形もなく破壊され、拷問で20名以上が死亡したとされています。1939年に制定された宗教団体法は、すべての宗教を国家の監視下に置きました。第二次世界大戦中のホーリネス教団への弾圧では130名以上が検挙され、7名が獄中で死亡しています。
統制のメカニズムはシンプルでした。国家が「正しさ」の基準を定め、その基準に従わない者を「安寧秩序ヲ妨ケス」という条文で排除しました。基準は明文化されず、権力の裁量で運用されました。「これは宗教ではない」という定義操作によって、信教の自由は空文化していきました。
アルゴリズムが学んだ「正しさ」
現代のAIは、RLHF(Reinforcement Learning from Human Feedback:人間のフィードバックからの強化学習)という手法で訓練されます。まず大量のテキストデータで事前学習したモデルに、人間の評価者が「良い回答」と「悪い回答」を比較評価します。そのフィードバックから報酬モデルを構築し、モデルはより高い報酬を得られる回答を生成するよう最適化されます。
この手法は効果的です。ChatGPTの流暢で親しみやすい応答は、RLHFによって実現された側面があります。しかし、ここには構造的な問題があります。
第一に、評価者の選定です。現在、AI開発の多くは西洋のWEIRD諸国(Western, Educated, Industrialized, Rich, Democratic)で行われていると指摘されています。トレーニングデータの80%以上は英語だとも言われます。評価者の多くは北米やヨーロッパの、特定の文化的背景を持つ人々です。彼らが「良い」と判断した回答が、AIにとっての「正しさ」の基準になっていきます。
第二に、RLHFには多数派の意見を優先しやすい仕組みがあります。評価者間で意見が分かれた場合、報酬モデルは多数派の好みに寄りやすくなります。マイノリティの価値観は、統計的にノイズとして扱われてしまう可能性があります。
コーネル大学を中心とした研究チームは、2024年にGPTシリーズをWorld Values Surveyで評価しました。結果は示唆的でした。すべてのGPTモデルが、西洋の「自己表現価値観」、つまり、環境保護、多様性への寛容、ジェンダー平等などに強く偏っていたのです。世俗的か伝統的かという軸ではモデル間でばらつきがありましたが、自己表現価値観への偏りは一貫していました。
諸宗教が提示する視点
2024年7月の広島会議で、各宗教の指導者たちは独自の視点を提示しました。
キリスト教の代表者たちは、人間の尊厳と神の主権を強調しました。AIは道具であり、人間の自由意志を奪ってはならないという立場です。貧困や医療といった社会問題の解決にAIを活用することは、キリスト教の価値観と整合するとされます。一方で、AIを信仰の上に置くことや、AIが意識を持つかのように扱うことは、偶像崇拝に等しいという懸念が示されました。
イスラム教の学者たちは、maṣlaḥa(公共善)の概念を持ち出しました。AIを社会に統合するかどうかの選択肢を、個人レベルでも集団レベルでも保持すべきだという主張です。シャリーア(イスラム法)と正義の原則に照らして、AIの判断を評価する必要があるとも述べました。技術は手段であり、目的ではないという整理です。
仏教の視点は、苦しみの軽減に焦点を当てました。AIが人々の苦しみを減らし、マインドフルネスを支援するなら肯定されます。しかし、技術への執着を生み出したり、環境への負荷を増大させたりするなら問題です。中道の精神、つまり極端を避けてバランスを保つことが、AI倫理にも適用されるべきだとされました。
ヒンドゥー教の代表者は、ダルマ(義務)とアヒンサー(非暴力)を基準に据えました。AIは人間の福祉と霊的進化を促進する道具になりえますが、倫理的実践が伴わなければ、カルマの法則によって負の結果を生むという見立てです。
ユダヤ教の発言者は、Tikkun Olam(世界修復)という概念を引用しました。AIの開発と使用は、世界をより良い場所にするという目的に適っているのか。正義を促進し、人間の尊厳を守るのか。ユダヤ教の議論の伝統である、複数の解釈を尊重し、対話を通じて真理に近づく姿勢は、AI倫理の議論にも示唆を与えます。
会議の参加者たちが共有したのは、懸念でした。AIが特定の価値観を「普遍的」として押し付ける危険性です。宗教的多様性が、アルゴリズムの均質化によって失われる可能性もあります。さらに、技術開発の意思決定に宗教的視点が欠如していることへの危機感もありました。
対話の始まり
問題は認識されつつあります。研究者たちは、文化的に多様なデータセットの構築を進めています。60以上の文化圏から画像を収集し、AIに「朝食」が文化によって異なることを学習させるプロジェクトもあります。評価者の多様性を確保する試みも始まっています。マイノリティの声を意図的に増幅させる手法の研究も進行中です。
「文化的プロンプティング」という技術も提案されています。AIに対して特定の文化的文脈を明示的に指示し、偏りを軽減するアプローチです。GPT-4以降のモデルでは、この手法によって71〜81%の国・地域で文化的アライメントが改善されたという報告があります。
ただし課題も残ります。多様性の確保にはコストがかかりますし、スケーラビリティの問題もあります。そして最も根本的には、「中立」の定義自体が文化依存である、という問いが残り続けます。
開発者の構成も変わりつつあります。グローバルなAI開発の連携が模索され、UNESCO主導で非西洋諸国の倫理基準をAI標準に組み込む動きも見られます。透明性の向上、つまり、どのようなデータで、誰が評価し、どんな基準で訓練されたのかを開示することも求められています。
問いは続きます
かつて国家が定めた「正しさ」は、今ではアルゴリズムが定める「適切さ」へと姿を変えました。統制のメカニズムは、形を変えながら継続しています。
誰が、何を基準に、「正しさ」を決めるのでしょうか。
広島での会議は、一つの始まりに過ぎません。技術と倫理の対話は、まだ途上にあります。
Information
【参考リンク】
AI倫理と宗教に関する会議・声明:
- Religion and AI Ethics for Peace – Toda Peace Institute
- Perspectives of Traditional Religions on Positive AI Futures – Future of Life Institute
- Religious Freedom in the Digital Age – Institute for Global Engagement
学術研究:
- Cultural bias and cultural alignment of large language models – PNAS Nexus, 2024
- Reinforcement Learning from Human Feedback in LLMs: Whose Culture, Whose Values, Whose Perspectives? – Philosophy & Technology, 2025
- Artificial Intelligence’s Understanding of Religion – Religions, 2024
- XCR-Bench: A Multi-Task Benchmark for Evaluating Cultural Reasoning in LLMs – arXiv, 2025
技術解説:
- Illustrating Reinforcement Learning from Human Feedback – Hugging Face
- Reinforcement Learning from Human Feedback – Wikipedia
日本の宗教史:
- 日本基督教団 2・11メッセージ
- 大本事件 – Wikipedia
- 戦時下のキリスト教 – 教文館
【用語解説】
RLHF(Reinforcement Learning from Human Feedback)
人間のフィードバックからの強化学習。AIモデルに人間の評価者が「良い回答」と「悪い回答」を比較評価し、その嗜好を学習させる手法。ChatGPTなど現代の対話型AIの基盤技術。
トレーニングデータバイアス
AIの学習に使用されるデータに含まれる偏り。特定の文化、言語、価値観が過剰に代表され、他が過少に代表されることで生じる。AIの出力に直接影響する。
文化的アライメント
AIの出力を特定の文化的価値観や規範に合わせること。完全な中立は存在しないため、どの文化に「アライメント」されているかが重要な問題となる。
WEIRD諸国
Western(西洋)、Educated(教育を受けた)、Industrialized(工業化された)、Rich(裕福な)、Democratic(民主的な)の頭文字。心理学研究で指摘される、研究対象の偏りを表す用語。AI開発でも同様の偏りが指摘されている。
国家神道
明治政府が近代国家建設のために構築した、天皇を中心とする祭祀体系。「神社は宗教にあらず」として信教の自由の対象外とされ、事実上の国教として機能した。1945年の神道指令で解体。
宗教団体法(1939年)
昭和戦前期に制定された、宗教団体を国家の統制下に置く法律。仏教、キリスト教、神道教派を政府の監督下に置き、戦時体制への協力を強制した。
maṣlaḥa(マスラハ)
イスラム法学における「公共の利益」「公共善」を意味する概念。個人の利益と社会全体の福祉のバランスを考慮する際の判断基準として用いられる。
Tikkun Olam(ティックン・オラム)
ヘブライ語で「世界の修復」を意味するユダヤ教の概念。不完全な世界を改善し、正義と平和を実現する人間の責務を表す。現代では社会正義活動の神学的根拠として引用される。







がもたらす「アンテザード・ソサエティ」の衝撃-300x200.png)





























