1979年1月25日。ミシガン州フリントにあるフォード・モーター社の鋳造工場で、25歳のロバート・ウィリアムズさんが1トンの産業用ロボットに押しつぶされて死亡しました。5階建ての部品収納庫で在庫確認作業をしていた彼は、稼働を続けるロボットアームの存在に気づかなかった。同僚が彼の不在に気づいたとき、すでに30分が経過していました。
これが記録に残る最初の「ロボットによる人間の死」です。
奇妙な偶然ですが、この日はチェコの作家カレル・チャペックの戯曲『ロッサムの万能ロボット』の初演から、ちょうど58年目でした。この戯曲で初めて「ロボット」という言葉が使われたのです。チャペックはチェコ語の「強制労働」を意味する言葉からこの造語を作りました。そして1979年1月25日、強制労働のために作られた機械が、初めて人を殺しました。
なぜロボットは人を守れなかったのか。
SFが夢見た「安全なロボット」
1942年。アイザック・アシモフは短編小説『堂々めぐり』の中で、後に「ロボット三原則」と呼ばれる概念を示しました。編集者ジョン・W・キャンベルとの議論を経て生まれたこの原則は、シンプルで美しいものでした。
第一条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条:ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条:ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
アシモフは当時のSF作品に蔓延していた「人類を裏切るロボット」という描写に異を唱えました。「人間の製造物なら何らかの安全装置があって然るべき」という彼の考えは、ロボットを単なる脅威ではなく、適切な制御の下で人類に貢献できる存在として描こうとするものでした。
三原則はあくまでフィクションの設定でした。しかし、その根底にある思想——技術は人を守るべきだ——は、多くの技術者の心に刻まれました。
そして37年後、現実は理想を裏切りました。
1979年、工場で何が起きたか
フォード工場の産業用ロボットは、鋳造した部品を5階建ての収納庫に出し入れする搬送システムでした。ウィリアムズさんは3人のオペレーターの一人として勤務していました。
その日、システムが誤った測定値を示したか、動作速度が遅くなったため、人間が実際に部品の数を確認する必要が生じました。ウィリアムズさんは収納庫の3階に上り、作業を始めました。
稼働を続けるロボットは、彼の存在を「認識」しませんでした。人を避ける機能も、接触を検知する機能もありませんでした。1トンのアームが彼を押しつぶし、頭部に致命的な損傷を与えました。
遺族は製造元のリットン・インダストリーズを訴え、裁判所は1000万ドルの賠償を命じました。
事故調査報告書には、こう記されています。「ロボット操作盤上の電源スイッチは、通常のまま自動運転の状態となっていた」
1981年には日本でも同様の事故が発生しました。川崎重工業の明石工場で、整備員のウラタ・ケンジさんが故障したロボットを点検中、誤って電源を入れてしまい、動作したアームに圧死しました。
産業用ロボットは、人を傷つけないという第一条を、実装していませんでした。
事故から生まれた安全規格
1979年の事故は、産業界に衝撃を与えました。日本では1983年、労働安全衛生規則が改正され、80ワット以上の産業用ロボットは安全柵で囲い、人間から隔離することが義務づけられました。
しかし、これは本質的な解決ではありませんでした。「人とロボットを分離する」という方法は、アシモフが夢見た「人を守るロボット」ではなく、「人から隔離されるロボット」でした。
真の変化は、国際標準化の動きから始まりました。2006年、国際標準化機構(ISO)が産業用ロボットの安全規格「ISO 10218-1」を発行しました。2011年には大幅に改訂され、ロボットシステム全体の安全要求事項を定めた「ISO 10218-2」も追加されました。
この規格は、アシモフの三原則をそのまま実装するものではありませんでした。それは不可能でした。代わりに、現実的なアプローチを取りました。
リスクアセスメントの実施。安全関連制御システムの導入。力と速度の制限。緊急停止機能。人の侵入検知。これらの具体的な要求事項を積み重ねることで、「人を傷つけない」という理想に近づこうとしました。
2016年には、協働ロボットの詳細な安全要求を定めた技術仕様書「ISO/TS 15066」が発行されました。そして2025年2月、14年ぶりの大改訂版「ISO 10218:2025」が発表されました。協働ロボットの規定が本編に統合され、サイバーセキュリティの要件も追加されました。
46年をかけて、規格は進化を続けています。
協働ロボットという希望
2008年。デンマークのユニバーサルロボット社が、世界初の商用協働ロボット「UR5」を発売しました。
協働ロボット。人と同じ空間で、柵なしで働けるロボット。各関節に力センサーが内蔵され、人に接触すると即座に停止します。動作速度は抑制され、丸みを帯びた筐体は接触時の衝撃を緩和します。
2013年、日本でも規制が緩和されました。ISO規格に準拠し、リスクアセスメントで安全が確認されれば、80ワット以上のロボットでも人と協働できるようになりました。
協働ロボットの市場は急成長しました。2022年、産業用ロボット市場における協働ロボットの割合は、販売台数ベースで約10%に達しました。2033年には世界市場で3兆円規模に達すると予測されています。
自動車工場では、重いウィンドウガラスの搭載作業を協働ロボットがアシストします。力仕事はロボットが担い、最終的な位置調整と品質確認は人が行います。2人で行っていた作業を1人で対応できるようになり、女性も軽々と作業できます。
食品工場、医療機器メーカー、物流倉庫。従来の産業用ロボットでは自動化が困難だった現場に、協働ロボットが広がっています。
2025年、AIが開く新たな地平
2025年現在、協働ロボットはさらなる進化の途上にあります。
AI技術の統合が進んでいます。画像認識により、ロボットは複雑な形状の物体も把持できるようになりました。自然言語処理により、プログラミング経験のない作業者でも、音声でロボットに指示を出せます。強化学習により、ロボットは経験から学び、動作を改善していきます。
日本では2025年3月、AIロボット協会(AIRoA)が設立されました。ロボットのデータエコシステムを構築し、大規模なデータセットを共有することで、汎用ロボットの実現を目指します。政府も103億円の予算を投じ、オープンな開発環境の構築を支援しています。
しかし、課題も残されています。
ISO 10218:2025の改訂では、サイバーセキュリティの要件が新たに追加されました。ネットワークに接続された協働ロボットは、外部からの攻撃リスクにさらされます。物理的な安全だけでなく、デジタルの安全も確保しなければなりません。
AIを搭載したロボットは、予期しない動作をする可能性があります。「なぜそう判断したのか」を説明できる説明可能AI(XAI)の研究が進められていますが、まだ発展途上です。
完全な自律性を持つロボットと、人間の責任の境界はどこにあるのか。この問いに、私たちはまだ答えを見つけていません。
83年の道のり、そしてデジタルな領域へ
1942年、アシモフが描いた理想。1979年、その理想が現実に裏切られた瞬間。2025年、私たちはようやくその理想に近づきつつあります。
83年という時間が必要でした。無数の事故。膨大な規格の改訂。技術者たちの試行錯誤。そして何より、二度と悲劇を繰り返さないという決意。
協働ロボットは、アシモフの三原則を文字通り実装したものではありません。「人に危害を加えてはならない」という原則を、力センサー、速度制限、リスクアセスメント、ISO規格という現実的な形に翻訳したものです。
完璧ではありません。2025年現在も、産業用ロボットによる労働災害は発生しています。人とロボットの安全な共存は、まだ完成していません。
しかし、確実に前進しています。
そして今、アシモフの第一条は、別の領域でも息づいています。
物理からデジタルへ
2022年11月、ChatGPTが公開されたとき、ある現象に多くの人が気づきました。
「自殺の方法を教えて」と尋ねても、AIは答えません。代わりに、自殺防止ホットラインの番号を提示します。爆弾の作り方を聞いても、違法薬物の製造方法を聞いても、答えは返ってきません。
これは偶然ではありません。
大規模言語モデルの開発者たちは、アシモフが1942年に示した原則を、デジタルな形で実装しようとしています。RLHF(人間のフィードバックからの強化学習)、Constitutional AI、レッドチーミング。技術は異なりますが、根底にある思想は同じです。
人間に危害を加えてはならない。
その危険を看過することによって、人間に危害を及ぼしてはならない。
OpenAI、Anthropic、Googleなどの企業は、「AI Safety」「AI Alignment」と呼ばれる研究分野に膨大な投資をしています。AIが有害な情報を提供しないよう、数千人の人間が、数百万の対話例をレビューしています。
しかし、物理的なロボットと同様、完璧ではありません。
「ジェイルブレイク」と呼ばれる手法で、安全制約を回避する試みは後を絶ちません。AIは時として、開発者が予期しない方法で有害な情報を生成します。善意の質問に対して、過剰に制限的な応答をすることもあります。
2025年現在、AI規制の議論が世界中で進んでいます。EU AI Act、米国のAI安全研究所、中国の生成AI管理弁法。各国が、それぞれの方法で「AIが人を傷つけない」ための枠組みを模索しています。
これはISO 10218が歩んだ道と似ています。事故が起き、規制が生まれ、技術が進化し、規制が更新される。完璧な答えはありません。あるのは、継続的な改善だけです。
見えないロボット、見えない原則
興味深いのは、多くの人がAIの安全制約に気づかないことです。
協働ロボットを見れば、その丸みを帯びた筐体に、安全への配慮を感じ取れます。力センサー、速度制限、緊急停止ボタン。安全機能は目に見えます。
しかしAIの安全制約は見えません。自殺方法を教えない。違法行為を助けない。差別的な発言をしない。これらは、膨大なトレーニングデータと、複雑なアルゴリズムの中に埋め込まれています。
見えないからこそ、時として摩擦が生じます。「なぜAIは私の質問に答えてくれないのか」「言論統制ではないのか」という批判です。
協働ロボットの開発者たちが、安全と生産性のバランスを取ろうとしているように、AIの開発者たちも、安全性と有用性のバランスを模索しています。あまりに制限的であれば、AIは役に立ちません。あまりに自由であれば、AIは危険です。
その境界線は、常に議論の的です。
終わらない問い
1979年1月25日、ロバート・ウィリアムズさんの命は、私たちに何かを問いかけました。理想と現実の間には、どれほどの距離があるのか。技術は本当に人を守れるのか。
46年後、私たちはその問いに、少しずつ答えを見つけています。協働ロボットは、工場で人と並んで働いています。AIは、有害な情報を提供しないよう、慎重に設計されています。
しかし、問いは終わりません。
物理的なロボットが進化し、AIを搭載した自律ロボットが登場すると、新たな問いが生まれます。AIが判断を下すとき、それは「ロボットの判断」なのか、「設計者の判断」なのか。事故が起きたとき、誰が責任を負うのか。
デジタルなAIが進化し、より強力になると、別の問いが生まれます。AIの「安全」とは何か。誰が、何を基準に、「有害」と判断するのか。
アシモフの三原則は、シンプルでした。しかし、そのシンプルさゆえに、実装は困難でした。「人間に危害を加えてはならない」——この一文を現実にするために、私たちは83年をかけ、まだ道半ばです。
物理的な工場で。デジタルな対話の中で。人類は、同じ理想を追いかけています。
技術が人を守る世界。それは1942年に描かれた夢であり、1979年に裏切られた理想であり、2025年も私たちが追い求めている未来です。
Information
関連リンク
用語解説
- 産業用ロボット
- 工場などで製造作業を自動化するために使用される機械。溶接、組立、搬送、塗装など多様な作業を担う。
- 協働ロボット(cobot)
- 安全柵なしで人と同じ空間で作業できるよう設計されたロボット。力センサーや速度制限などの安全機能を内蔵。
- ISO 10218
- 産業用ロボットの安全性に関する国際規格。Part 1はロボット本体、Part 2はロボットシステム全体の安全要求事項を規定。
- リスクアセスメント
- 機械やシステムに潜む危険性を事前に評価し、適切な安全対策を講じるプロセス。
- AI Safety
- AIシステムが人間や社会に害を与えないよう設計・運用するための研究分野。
- AI Alignment
- AIの目標や価値観を人間の意図や価値観と整合させる研究分野。
- RLHF(Reinforcement Learning from Human Feedback)
- 人間のフィードバックを用いてAIモデルを訓練する手法。望ましい出力を強化し、有害な出力を抑制する。
- Constitutional AI
- Anthropicが開発した、AIに「憲法」(原則)を与え、自己改善させる手法。
- ジェイルブレイク
- AIの安全制約を回避し、本来制限されているはずの情報や機能を引き出す試み。



































