2007年1月9日、午前9時41分
サンフランシスコ、Moscone Westコンベンションセンター。Macworld Conference & Expoの基調講演が始まろうとしていました。
数千人の観客を前に、スティーブ・ジョブズがステージに立ちました。黒いタートルネック、ブルージーンズ、白いスニーカー──彼のトレードマークとなった姿です。
「今日は、2年半待ち望んでいた日です」
ジョブズはそう切り出しました。そして、いつものように、慎重に言葉を選びながら話し始めました。
「時々、すべてを変える革命的な製品が登場します。Appleは幸運にも、キャリアの中でそうした製品を生み出すことができました。1984年、Macintoshはコンピュータ業界全体を変えました。2001年、iPodは音楽業界全体を変えました」
そして彼は続けました。
「今日、私たちは3つの革命的製品を発表します。1つ目は、タッチコントロールを備えたワイドスクリーンiPod。2つ目は、革命的な携帯電話。そして3つ目は、画期的なインターネット通信デバイスです」
観客は沸きました。しかし、ジョブズは微笑みながら、もう一度繰り返しました。
「iPod、電話、インターネット端末…お分かりですか?これらは3つの別々のデバイスではありません。1つのデバイスなんです。私たちはそれをiPhoneと呼んでいます」
会場は歓声に包まれました。しかし、この日本当に歴史を変えたのは、ジョブズが何度も繰り返した、ある一つの主張でした。
「私たちは、生まれつき究極のポインティングデバイスを持っています──私たちの指です。そしてiPhoneは、マウス以来最も革命的なユーザーインターフェースを備えています」
この瞬間、コンピューティングにおける「人間と機械の対話」の歴史が、新しい章を迎えました。

モバイルインターフェースの前史──間接的な対話の時代
2007年初頭の携帯電話市場は、すでに成熟していました。世界市場ではNokiaが約40%のシェアを持ち、北米ではBlackBerryがビジネスユーザーの圧倒的な支持を得ていました。
しかし、これらのデバイスはすべて、物理的なインターフェースに依存していました。BlackBerryの象徴は、デバイス下半分を占める物理的なQWERTYキーボードでした。親指でボタンを押す「サムタイピング」という独特の文化さえ生まれていました。
Palm PilotやWindows Mobile端末はスタイラスを採用していました。Palmユーザーは「Graffiti」という専用の文字入力システムを習得する必要がありました──つまり、デバイスが認識できる「特殊なアルファベット」を書く訓練です。
言い換えれば、2007年以前のモバイルコンピューティングは、常に翻訳を必要としていました。人間の意図は、ボタン、キー、スタイラスという物理的な「翻訳装置」を介して、デジタル世界へ伝えられていたのです。
興味深いことに、「タッチスクリーン」という概念自体は新しいものではありませんでした。実際、LGは2007年5月に「Prada」という携帯電話を発売しており、これはiPhone(6月29日発売)よりも数週間早く市場に登場した静電容量式タッチスクリーン搭載の携帯電話でした。
しかし、これらの先行製品は「シングルタッチ」──一度に1点しか認識できない──という制約がありました。これでは、物理ボタンの代替にはなっても、新しい可能性を開くことはできません。
iPhoneの革新性は、「マルチタッチ」にありました。
マルチタッチ技術の系譜──40年の研究史
マルチタッチ技術の歴史は、1965年まで遡ります。
イギリス・マルバーンの王立レーダー研究所で働いていたエンジニア、E.A.ジョンソンは、航空管制のために最初の静電容量式タッチスクリーンを開発しました。その原理は驚くほどシンプルです。ガラス表面を透明な導電性素材(酸化インジウムスズ)でコーティングし、グリッド状の電極を形成します。指が画面に触れると、人体の持つ静電容量によって微量の電流が流れ、その位置を検出できる──この基本原理は、58年後の今日でも変わっていません。
しかし、ジョンソンの発明は航空管制という限定的な用途に留まり、一般消費者向けには展開されませんでした。
「マルチタッチ」──複数の接触点を同時に認識する技術──への飛躍は、1982年に始まります。トロント大学のInput Research Groupが、すりガラスの背後にカメラを配置し、複数の指を同時に追跡するシステムを開発しました。
1984年には、Bell LabsのBob BoieとCarnegie Mellon大学の研究チームが、それぞれ独自のマルチタッチプロトタイプを開発しています。特にCarnegie Mellon大学のシステムは、1985年に「ピンチ・トゥ・ズーム」──2本の指で拡大・縮小する──ジェスチャーを実証していました。
しかし、これらの研究は学術的な領域に留まっていました。装置は大きく、コストは高く、「ポケットに入れて持ち歩く」という発想はありませんでした。
転機は1998年に訪れます。
FingerWorks──小さな会社が作った大きな技術
デラウェア大学の博士課程学生だったWayne Westermanは、ある問題に直面していました。博士論文を書き上げるために、長時間キーボードを打ち続けた結果、反復性ストレス障害(RSI)を発症したのです。
「研究を続けるには、別の方法が必要だった」と、Westermanは後に語っています。
彼は、キーを押す必要のない、低負荷の入力装置の研究を始めました。指をそっと置くだけで反応するマルチタッチサーフェス。複数の指の動きを同時に認識し、それを様々なコマンドに変換する仕組みです。
同僚の教授、John Eliasが加わり、2人は1998年に「FingerWorks」という会社を設立しました。
彼らが開発した「TouchStream」キーボードは、外見こそ通常のキーボードに似ていますが、全く異なる製品でした。キー表面全体がマルチタッチセンサーになっており、指を滑らせるだけで文字が入力されます。また、複数の指を使った複雑なジェスチャーで、マウス操作やマクロコマンドを実行できました。
FingerWorks製品は、RSI患者やパワーユーザーから高い評価を受けました。しかし、市場は限定的でした。一般消費者にとって、「キーを押さないキーボード」は理解しづらく、価格も高価でした。
2005年春、FingerWorksのウェブサイトに短い告知が掲載されました。「私たちは営業を終了します」。買収者の名前は明かされませんでしたが、数ヶ月後、特許文書に答えが現れました。
Appleは、WestermanとEliasを上級エンジニアとして雇用しました。その後のWestermanの特許出願を見ると、彼がAppleのマルチタッチ技術の中心人物だったことが分かります。
コードネーム「Purple」──iPhoneへの道
AppleがFingerWorksを買収した2005年、社内では「Project Purple」というコードネームの秘密プロジェクトが進行していました。
興味深いことに、当初の目標は「タブレット」でした。2004年、開発チームは会議室サイズのマルチタッチディスプレイを試作しています。指でスワイプしてスクロールし、2本の指でピンチして拡大・縮小し、フォルダをドラッグして移動する──後にiPhoneで見られる基本的なジェスチャーは、この段階で確立されていました。
しかし、ジョブズは別のことを思いつきました。「この技術を、電話に応用できないか?」
携帯電話市場は、パソコン市場よりもはるかに巨大でした。そして、当時の携帯電話はどれも、貧弱なユーザーインターフェースに悩まされていました。
開発期間は1年半。Appleのエンジニアたちは、FingerWorksの不透明なトラックパッド技術を、透明な静電容量式タッチスクリーンに応用する作業を進めました。
2006年、ジョブズは試作品をポケットに入れて持ち歩き始めましたが、すぐに問題に気づきました──鍵と一緒にポケットに入れると、プラスチック製の画面が傷だらけになったのです。
発表の6ヶ月前、ジョブズはチームに告げました。「全部作り直せ。ガラス製の画面が必要だ」
Appleは、Corning社に連絡しました。同社は「ゴリラガラス」という化学強化ガラスを開発していましたが、まだ量産体制には入っていませんでした。Corningは、わずか数ヶ月で量産ラインを立ち上げました。
2007年1月9日、iPhoneは間に合いました。
ステージ上の実演──技術が「魔法」になる瞬間
Macworldのステージで、ジョブズは実際のデバイスを取り出し、デモンストレーションを始めました。
彼は画面をスワイプして写真をスクロールし、ピンチして拡大しました。観客は、物理的な物体を扱うかのように、デジタルコンテンツが直接操作される様子を目撃しました。
ジョブズは「Visual Voicemail」を実演しました。従来のボイスメールシステムは順次アクセスしかできませんでしたが、iPhoneではメッセージがリスト表示され、任意の順番で再生できます。彼は実際に、元副大統領アル・ゴアからの祝福メッセージを再生して見せました。
「これはAT&T(当時Cingular)とのコラボレーションで実現しました」とジョブズは説明しました。これは技術だけでなく、ビジネスモデルの革新でもあったのです。
彼はGoogle Mapsを開き、地図を指でドラッグして動かし、ピンチして拡大しました。「まるで本物の地図のようでしょう?」
そして、実際に電話をかけて見せました。通話中に別の電話がかかってきました。画面をタップするだけで、通話を保留し、切り替え、さらに三者通話に拡張できました。
「これは本当に素晴らしい電話です」とジョブズは語りました。
業界の反応──懐疑論と現実のギャップ
しかし、業界の反応は複雑でした。
Microsoftのスティーブ・バルマーCEOは、iPhone発表直後のCNBCインタビューでこう述べています。
「500ドルもする電話を誰が買うんだ?それは世界で最も高価な電話だ。物理キーボードがないから、ビジネスユーザーには魅力的ではない。BlackBerryの方が良い選択だ」
BlackBerryの共同CEO、ジム・バルシリーも楽観的でした。「iPhoneは私たちの脅威ではない。異なる市場セグメントをターゲットにしている」
実際、初代iPhoneには多くの制約がありました。サードパーティアプリは使えず、3G通信にも対応しておらず、コピー&ペーストすらできませんでした。バッテリーは交換不可能で、8GBモデルは599ドルという高価格でした。
しかし、実際にiPhoneに触れた人々の反応は、アナリストの予測とは異なっていました。
新しい身体言語の誕生
iPhoneが導入したのは、単なる新しい入力方法ではありませんでした。それは新しい身体言語でした。
ピンチして拡大・縮小する動作は、物理的な物体を扱う感覚と一致しています。スワイプは、紙をめくる動作に似ています。タップは、ボタンを押す感覚です。
これらのジェスチャーの多くは、実は長年研究されてきたものでした。2006年2月、ニューヨーク大学のJeff HanがTEDカンファレンスでマルチタッチのデモンストレーションを行い、大きな反響を呼びました。しかし、彼のシステムは大型ディスプレイ向けで、後にCNNの「Magic Wall」として採用されることになります。
Appleの革新性は、マルチタッチを「誰もが毎日持ち歩くデバイス」に実装したことにあります。そして何より重要だったのは、これらの技術を技術としてではなく、自然な人間の動作として提示したことです。
3歳の子どもが、説明なしでiPadを操作できます。高齢者が、老眼鏡をかけながらも、写真をピンチして拡大できます。つまり、iPhoneは「学習」を必要としないデバイスだったのです。
競合の対応──市場の再編成
iPhoneの成功を目の当たりにして、競合他社は戦略の変更を余儀なくされました。
Googleは、物理キーボード付きのAndroid試作機を破棄し、タッチスクリーンベースのシステムに作り直しました。初期のAndroid端末は明らかにiPhoneの影響を受けており、マルチタッチジェスチャーを採用していました。
BlackBerryは2008年に「BlackBerry Storm」を発表しました。タッチスクリーンを採用しながらも、画面全体が物理的に押し込める「SurePress」という独自技術を搭載していました。しかし、このハイブリッドアプローチは市場に受け入れられませんでした。
Nokiaの凋落はさらに劇的でした。2007年に世界市場の40%を支配していた巨人は、2012年には3%まで落ち込みました。CEOスティーブン・エロップが2011年に社内メモで書いた言葉は有名です。「私たちは、燃える油田プラットフォームの上に立っている」
何が起こったのか?答えはシンプルです。人々は、直接触れたかったのです。
2026年──触覚の新次元
2007年1月9日から19年が経ちました。今日、マルチタッチは当たり前の存在です。しかし、「触れる革命」は進化を続けています。
現在のトレンドはハプティクス──より洗練された触覚フィードバック技術です。
iPhoneの「Taptic Engine」は、画面上の操作に対して精密な振動を返し、物理的なボタンを押したような感覚を生み出します。2026年現在、この技術はさらに進化しています。
Northwestern大学が開発した「VoxeLite」は、人間の指先と同じ空間的・時間的解像度で触覚を再現できるウェアラブルデバイスです。1グラム以下の重量で、指先に貼り付けて使用します。これにより、画面上で「ざらざら」「つるつる」といった質感の違いを実際に感じることができます。
また、ジェスチャーコントロールも進化しています。Googleの「Soli」レーダー技術は、画面に触れることなく、空中での手の動きだけで操作を可能にします。
さらに、音声制御との統合も進んでいます。「触れる」「見る」「話す」──複数のモダリティが、文脈に応じてシームレスに切り替わる時代が来ています。
しかし、これらすべての進化の原点にあるのは、2007年1月9日の「直接触れる」という発想です。
人間とコンピュータの距離
2007年1月9日のプレゼンテーションで、ジョブズは技術的な詳細をあまり語りませんでした。静電容量センサーの仕組みや、マルチタッチのアルゴリズムについての説明はほとんどありませんでした。
代わりに、彼は繰り返し「指」について語りました。生まれつき持っている、究極のポインティングデバイスとしての指。
この選択は、深い洞察を示していました。コンピュータと人間の関係において、本当に重要なのは技術そのものではなく、人間が技術とどう対話するかだったのです。
マウス、キーボード、スタイラス──これらはすべて優れた発明でした。しかし、それらは「媒介物」でした。人間とデジタル世界の間に存在する翻訳装置でした。
iPhoneは、その媒介物を取り除きました。人間は初めて、デジタルコンテンツに直接触れることができるようになりました。
この変化は、単なる利便性の向上ではありませんでした。それは、人間とコンピュータの距離を消し去る変化でした。
累計30億台が語ること
2007年6月29日、iPhoneは米国で発売されました。最初の年に140万台が売れ、2012年には累計2億台を超え、2026年現在、累計出荷台数は30億台を超えています。
しかし、数字以上に重要なのは、iPhoneが変えた行動様式です。
私たちは今、朝起きてすぐにスマートフォンをチェックします。通勤中に画面をスワイプし、レストランで料理の写真を撮り、ピンチして拡大してメニューを読みます。道に迷ったときは、地図を指でなぞります。
これらの動作は、すべて2007年以降に生まれた新しい習慣です。そして、この習慣は世代を超えて広がっています。
「触れる」という行為は、人間にとって最も原始的なコミュニケーション手段の一つです。赤ちゃんは、言葉を話す前に、触れることで世界を理解します。
iPhoneは、その原始的な本能をデジタル世界に持ち込みました。そして、それが革命だったのです。
19年前の1月9日、スティーブ・ジョブズはMacworldのステージに立ち、こう言いました。
「私たちは、生まれつき究極のポインティングデバイスを持っている──私たちの指です」
その日から、世界は指先で動き始めました。
Information(参考リンク・用語解説)
【参考リンク】
Apple公式プレスリリース(2007年1月9日)
https://www.apple.com/newsroom/2007/01/09Apple-Reinvents-the-Phone-with-iPhone/
iPhone発表時の公式プレスリリース。「5年先を行く革命的な携帯電話」としてのポジショニングと、主要機能の詳細。
Steve Jobs iPhone 2007 Presentation (Full Transcript)
https://singjupost.com/steve-jobs-iphone-2007-presentation-full-transcript/
2007年1月9日のMacworld基調講演の完全トランスクリプト。ジョブズの具体的な発言と、デモンストレーションの詳細な記録。
Hidden Heroes: Sam Hurst, Jeff Han, Ken Kocienda and multitouch interface invention
https://hiddenheroes.netguru.com/hurst-han-kocienda
マルチタッチ技術を実現した「隠れた英雄たち」についての詳細な記事。E.A.ジョンソン、Samuel Hurst、Jeff Han、Ken Kociendaなど、複数の発明者による同時多発的な開発の歴史と、「同時発見」という現象についての考察。
IEEE Spectrum: The Consumer Electronics Hall of Fame – Apple iPhone
https://spectrum.ieee.org/the-consumer-electronics-hall-of-fame-apple-iphone
技術者の視点からのiPhone分析。初代iPhoneのハードウェア仕様(ARM 620MHz、3.5インチディスプレイ、静電容量式タッチスクリーン)と、静電容量式マルチタッチの技術的詳細。LG Pradaとの比較も含む。
How the iPhone Works | HowStuffWorks
https://electronics.howstuffworks.com/iphone.htm
iPhoneのマルチタッチ技術の仕組みを分かりやすく解説。静電容量方式の座標系システム、相互容量(Mutual Capacitance)と自己容量(Self Capacitance)の違いについて。
AppleInsider: Inside the multitouch FingerWorks tech in Apple’s tablet
https://appleinsider.com/articles/10/01/23/inside_the_multitouch_fingerworks_tech_in_apples_tablet
FingerWorksの技術がどのようにApple製品(iPhone、iPad、MacBookトラックパッド)に統合されたかについての詳細な技術分析記事。Wayne Westermanの特許出願の変遷も追跡。
Northwestern University: VoxeLite – Human-resolution haptics (2025)
https://techxplore.com/news/2025-11-fingertip-haptic-device-lifelike-texture.html
2025年11月に発表された最新のハプティクス技術。人間の指先と同じ空間的・時間的解像度(人間の皮膚感覚に匹敵する性能)で触覚を再現できるウェアラブルデバイス「VoxeLite」について。1グラム以下の重量で、電気粘着(Electroadhesion)技術を使用。
TechGYZ: Smartphones With Best Haptics in 2025
https://techgenyz.com/smartphones-with-best-haptics-tactile-feedback/
2026年現在のハプティクス技術の到達点。最新スマートフォンにおける触覚フィードバックの進化と、線形振動モーター(Linear Resonant Actuator)の性能比較。
【用語解説】
マルチタッチ(Multi-Touch)
複数の接触点を同時に認識できるタッチスクリーン技術。ピンチ・トゥ・ズーム(2本の指で拡大・縮小)のような複雑なジェスチャーを可能にする。iPhoneは静電容量方式のマルチタッチを採用し、最大10点の同時タッチを認識できる。
静電容量方式タッチスクリーン(Capacitive Touchscreen)
画面表面に透明な導電性素材(酸化インジウムスズ)でグリッド状の電極を形成し、人間の指が触れたときの静電容量の変化を検出する技術。1965年にE.A.ジョンソンが発明。人間の指での操作を前提としており、一般的なスタイラスでは反応しない。
FingerWorks
1998年にWayne WestermanとJohn Eliasがデラウェア大学で設立したマルチタッチ技術の先駆企業。TouchStreamキーボードやiGesture Padなど、複数の指の動きを同時に認識できる製品を開発。2005年4月にAppleが買収し、両創業者は上級エンジニアとしてiPhone開発に参加した。
ハプティクス(Haptics)
触覚フィードバック技術。振動や力の感覚を通じて、ユーザーに物理的な反応を提供する。iPhoneの「Taptic Engine」は、線形振動モーターを使用し、画面をタップしたときに精密な振動パターンを生成することで、物理的なボタンを押したような感覚を生み出す。2026年現在、Northwestern大学の「VoxeLite」のように、テクスチャーや質感まで再現できる技術が開発されている。
ピンチ・トゥ・ズーム(Pinch-to-Zoom)
2本の指を使って、画面上のコンテンツを拡大・縮小するマルチタッチジェスチャー。指を広げると拡大、狭めると縮小。直感的な操作として広く普及した。技術的には1985年にCarnegie Mellon大学が最初に実証していたが、iPhoneで初めて一般消費者向けデバイスに実装され、標準的なインターフェースとなった。
Visual Voicemail
従来のボイスメールシステムが順次アクセス(Sequential Access)だったのに対し、メッセージをリスト形式で表示し、ランダムアクセスを可能にする機能。iPhoneが初めて導入し、AT&T(当時Cingular Wireless)のネットワークレベルでの協力により実現された。後に他のキャリアやスマートフォンにも採用された。
BlackBerry
カナダのResearch In Motion(RIM、2013年にBlackBerry Limitedに改名)が開発したスマートフォンブランド。物理的なQWERTYキーボードと、プッシュ型メール機能で知られる。2000年代、特にビジネスユーザーと政府機関に絶大な人気を誇り、2009年には北米スマートフォン市場の56%を占めていた。しかしiPhone登場後、急速にシェアを失い、2016年に自社ハードウェア製造を終了した。
Soli(Google Project Soli)
Googleが開発したミリ波レーダー技術。画面に触れることなく、空中での微細な手の動きを検出してデバイスを操作できる。Pixel 4スマートフォンで初めて実装され、音楽の再生/停止や音量調整などの操作に使用された。60GHz帯の電波を使用し、サブミリメートルの動きまで検出できる。
































