2026年2月5日、The Guardianがインドの女性データワーカーが直面する深刻な労働環境について報じた。インドのジャールカンド州でグローバルテクノロジー企業のコンテンツモデレーターとして働く26歳のモンスミ・ムルムは、1日最大数百件の暴力的・性的コンテンツを閲覧し、AIアルゴリズムのトレーニングのために分類作業を行っている。
月給約260ポンドで、この仕事により不眠や侵入的思考、感情の麻痺などの心理的影響を経験している。インドIT業界団体Nasscomによると、2021年時点でインドには推定70,000人のデータアノテーション労働者が存在し、市場規模は約2億5,000万ドルに達する。
労働者の約80%は農村部や疎外された背景から来ており、女性が半数以上を占める。昨年4月に発表された研究では心的外傷ストレスが最も顕著なリスクと特定されたが、The Guardianが取材した8社のうち心理的サポートを提供しているのは2社のみであった。
From:
‘In the end, you feel blank’: India’s female workers watching hours of abusive content to train AI
【編集部解説】
私たちが日常的に利用している生成AIやSNSプラットフォームの裏側で、想像を絶する精神的負担を抱えながら働く人々がいます。この記事が浮き彫りにしたのは、AI開発における「見えない労働者」の実態です。
コンテンツモデレーションは、機械学習の品質を左右する極めて重要な工程です。暴力、虐待、児童性的虐待などの有害コンテンツをAIが正確に識別できるようにするためには、人間がそれらを一つひとつ確認し、ラベル付けする必要があります。しかしこの作業は、労働者に深刻な心理的トラウマをもたらします。
社会学者ミラグロス・ミセリが指摘するように、この仕事は「致命的な産業に匹敵する危険な労働」です。記事に登場するムルムさんは当初、閲覧したコンテンツが夢に現れて眠れない日々を過ごしましたが、今では「空白を感じる」と語ります。この感情の麻痺は、心理的防衛機制の一種であり、むしろ深刻な兆候と言えます。
インドがこの種の労働の中心地となっている背景には、経済的な構造があります。企業は人件費と運営コストを抑えるため、地方都市や農村部に拠点を置きます。インターネットインフラの整備により、労働者を都市部に移住させることなく、グローバルなAIサプライチェーンに直接組み込むことが可能になりました。
特に注目すべきは、労働者の大半が女性であり、その多くがダリット(不可触民)やアディヴァシ(先住民族)といった社会的に疎外されたコミュニティ出身であることです。企業は女性を「信頼できる」「細部に注意を払う」存在として評価する一方で、在宅勤務という形態が女性の社会的立場をかえって固定化させているという指摘もあります。
求人広告では「簡単な仕事」「ゼロ投資」と謳われていますが、実際の業務内容は契約後まで明かされません。ライナ・シンさんのケースでは、当初はスパム判定などの軽微な作業だったものが、予告なく児童性的虐待コンテンツの審査に変更されました。マネージャーからは「神の仕事だ」と正当化されましたが、その後ポルノコンテンツの分類作業が続き、彼女は性的嫌悪感や解離症状を抱えるようになりました。
The Guardianが取材した8社のうち、心理的サポートを提供しているのはわずか2社でした。残りの企業は「メンタルヘルスケアを必要とするほど要求の厳しい仕事ではない」と主張しています。さらに、サポートが存在する場合でも、労働者自身が申し出なければならず、特に農村部出身者は自身の症状を言語化できないケースが多いとされます。
労働者は厳格な秘密保持契約(NDA)により、家族や友人にも仕事の詳細を話すことができません。ムルムさんは家族に仕事内容を知られれば、村の慣習に従って結婚を強いられ、仕事を失うことを恐れています。失業への不安が、精神的健康の訴えを妨げているのです。
インドの労働法には心理的危害に対する法的認識がなく、労働者は実質的に保護されていません。昨年4月に発表された研究では、職場の介入措置が存在する場合でも、二次的トラウマが持続することが明らかになっています。
AI開発において、データの質が成果を左右するという原則は広く知られています。しかしその「質」を担保するために、誰がどのような犠牲を払っているのかは、ほとんど語られてきませんでした。AIが人類の進化を促す技術であるならば、その恩恵と負担の配分についても、私たちは真剣に向き合う必要があります。
【用語解説】
コンテンツモデレーション
ソーシャルメディアやオンラインプラットフォーム上の投稿内容を監視し、暴力、ヘイトスピーチ、児童性的虐待などの有害コンテンツを検出・削除する作業。AIの学習データ作成においても、人間による判断が不可欠とされる。
データアノテーション
機械学習モデルを訓練するために、画像、動画、テキストなどのデータにラベルやタグを付ける作業。AIが正確に学習するための基礎となる工程である。
ゴーストワーカー
AIやデジタルプラットフォームを支える見えない労働者を指す用語。多くは低賃金で過酷な条件下で働きながら、その存在が一般に認識されていない。
二次的トラウマ
他者のトラウマ体験に繰り返し接することで、自身も心的外傷を負う現象。医療従事者や救急隊員などにも見られるが、コンテンツモデレーターは特に高リスクとされる。
ダリット
インドのカースト制度において最下層に位置づけられてきた人々。かつて「不可触民」と呼ばれ、現在も社会的差別が残る。
アディヴァシ
インドの先住民族の総称。主に森林地帯や山岳地帯に居住し、経済的・社会的に疎外されてきた歴史を持つ。
NDA(秘密保持契約)
業務上知り得た情報を第三者に開示しないことを約束する契約。違反した場合、解雇や損害賠償請求の対象となる。
【参考リンク】
Nasscom(外部)
インド全国ソフトウェア・サービス企業協会。IT・BPO産業の業界団体で、市場データや政策提言を行う組織。
Aapti Institute(外部)
テクノロジーと社会の交差点における政策研究を行うインドのシンクタンク。データガバナンスやデジタル労働の研究に注力。
Data Workers’ Inquiry(外部)
AI産業におけるデータワーカーの労働条件や権利について調査・研究するプロジェクト。社会学者ミラグロス・ミセリが主導。
【参考記事】
The Humans Behind AI: Inside the Invisible Work That Powers ChatGPT(外部)
ケニアのデータワーカーがOpenAIのChatGPT開発のために有害コンテンツをラベリングする作業を時給2ドル未満で行っていた実態を報じた調査報道。
AI’s juggernaut power comes at a cost to the environment and to people(外部)
AI開発における環境負荷と人的コストについて包括的に分析した記事。データアノテーション労働者の実態にも言及している。
The internet is sustained by invisible labor(外部)
グローバル南部におけるデータラベリング産業の実態を多角的に報じた特集記事。労働条件、賃金構造、精神的影響について詳述。
Content Moderator Mental Health and Associations with Coping Styles(外部)
2025年4月発表の研究論文。コンテンツモデレーターの4分の1以上が中程度から重度の心理的苦痛を経験していることを明らかにした。
【編集部後記】
私たちが何気なく使うAIサービスの裏側で、誰かが深い傷を負いながら働いています。この記事を読んで、その事実にどう向き合うべきか考えさせられた方も多いのではないでしょうか。
技術の進化は素晴らしいものですが、その恩恵が一部の人々の犠牲の上に成り立っているとしたら、私たちはそのあり方を問い直す必要があります。AI企業の透明性向上や労働者保護の仕組みについて、ユーザーとしても関心を持ち続けることが、より公正な技術社会への第一歩になるかもしれません。






がもたらす「アンテザード・ソサエティ」の衝撃-300x200.png)





























