iOS 27 × Apple Intelligence──栄養スキャンから名刺登録まで、Visual Intelligence拡張4機能が浮上

[更新]2026年4月17日

スマートフォンの「見る」能力が、また一段階変わろうとしています。カメラをかざすだけで栄養成分を解析し、紙の名刺から連絡先を自動登録する——Appleがそんな日常のシームレスな記録をiOS 27で実現しようとしていることが、バックエンドコードの解析から浮かび上がってきました。WWDC 2026を約2ヶ月後に控えた今、Apple Intelligenceの次の姿が少しずつ見え始めています。


2026年4月16日、リーカーのNicolás AlvarezがAppleのバックエンドコードを解析し、iOS 27に向けて開発中とみられるApple Intelligenceの新機能4件が明らかになった。MacRumorsが報じた内容によれば、Visual Intelligenceはカメラで食品の栄養成分表示をスキャンして情報を取得し、Healthアプリと連携する可能性がある機能と、印刷された電話番号・住所をスキャンして連絡先に追加する機能の2件が追加される見通しだ。

また、Apple WalletがAIを使ってイベントチケットやジムの会員証をスキャンしデジタルパスを生成する機能、SafariがタブをAIで自動命名する「Smart Tab Groups」も開発中とされる。いずれもバックエンドのコード文字列から解釈されたものであり、機能が説明通りに動作するか、またiOS 27でのリリースか段階的な提供となるかも現時点では不明だ。

From: 文献リンク4 New Apple Intelligence Features Found in Apple Code, Likely in iOS 27

【編集部解説】

リークされた4機能を順に並べると、栄養成分のスキャン、名刺からの連絡先登録、紙チケットのデジタルパス化、ブラウザタブの自動命名——一見してバラバラな機能群です。しかしこれらには、ひとつの共通点があります。すべてが「見て、書き写し、整理する」という、ユーザーがこれまで自分の手で担ってきた作業を肩代わりするものだという点です。

私たちはこれを「視覚労働の自動化」と呼ぶことにします。そして、この視点で4機能を読み直すとき、Appleが進もうとしている方角がより鮮明に見えてきます。

「カメラ」が辿ってきた道——撮影装置から記録装置へ

Visual Intelligenceが登場したのは2024年9月、iPhone 16シリーズと同時でした。本体側面に新設されたCamera Controlボタンを長押しすると起動し、目の前のものをカメラで捉えて情報を返す——Google Lens(2017年発表)のApple版とすぐに評された機能です。

iOS 18.2(2024年12月)で実際に提供が始まり、できることが段階的に増えていきました。レストランや店舗の情報照会、テキストの翻訳・要約、ChatGPTへの引き継ぎ。続くiOS 18.3(2025年1月)では、ポスターやチラシの日付からカレンダー予定を作成したり、植物・動物の種類を識別したりできるようになりました。そして昨秋のiOS 26では、カメラだけでなくスクリーンショットにも対応し、画面上のオブジェクトを指でなぞって検索できる「Highlight to Search」が加わっています。

この軌跡を眺めると、カメラの役割そのものが少しずつ変質してきたことに気づきます。スマートフォンのカメラは長らく「景色や人を記録する装置」でした。アプリのアイコンを見たとき、私たちが思い浮かべるのは「撮る」という動作です。ところがVisual Intelligenceの進化が向かう先は、「撮る」ではなく「見る」「読み取る」「書き込む」です。栄養成分表をiPhoneにかざす動作は、写真を撮るためではなく、その瞬間にデータを取り込むため。撮影された画像が後で見返されることは、おそらくほとんどないでしょう。

iOS 27のリーク機能は、この変質の到達点というより、次の段階への入口にあたります。

視覚労働の正体——「シャドウ・ワーク」としての記録作業

哲学者のイヴァン・イリイチは1981年の著書『シャドウ・ワーク』で、賃金労働を成立させるために私たちが無償でこなしている膨大な周辺労働の存在を指摘しました。家事、通勤、書類記入、行政手続き——いずれも誰からも報酬を支払われないのに、現代社会で生きていくためには避けて通れない作業群です。後の論者は、セルフレジでの会計、ガソリンスタンドでの給油、航空券の自分での予約なども、消費者が引き受けるシャドウ・ワークの典型例として挙げてきました。

栄養成分の手入力、名刺の整理、紙チケットの保管、開きすぎたブラウザタブの分類——iOS 27のリーク機能が肩代わりしようとしているのは、まさしくこの種のシャドウ・ワークです。それぞれは小さく、無視できる時間に思えます。けれど積み重なれば、私たちが日々の中で「見て、写し、整理する」ために費やしている時間は決して少なくありません。

スマートフォンの入力方法は、これまで2回大きく変わってきました。物理キーボードからタッチパネルへ。そしてSiriを含む音声入力へ。それに続く第3の入力チャネルとして、いま「カメラを向ける」が定着しつつあります。文字を打つ代わりに、レストランの看板にレンズを向ける。商品名を覚える代わりに、棚の商品にレンズを向ける。栄養成分表を眺めて手で記録する代わりに、パッケージにレンズを向ける。これらはどれも「指の労働」を「視線と腕の動作」に置き換える試みであり、入力に必要な認知負荷を下げる設計思想に貫かれています。

ここで注意したいのは、視覚労働の自動化は単なる「便利さの追加」ではなく、シャドウ・ワークの担い手の交代であるという点です。これまで私たちが無償でこなしていた記録作業が、AIに移譲される。空いた時間や認知資源は、別の何かに振り向けられる——少なくとも理屈の上では。

ただし、シャドウ・ワークが消えるとき、それと一緒に消えるものがあることにも注意が必要です。栄養成分を毎食手で記録する作業は面倒ですが、その面倒さがあるからこそ「自分が何を食べているか」への意識が保たれていた、という側面はあります。名刺を整理しながら相手の顔と肩書きを思い出す行為が、人間関係の記憶を強化していた、という側面もあります。記録の摩擦が消えたとき、記録される対象への注意もまた、薄れていくのかもしれません。これは便利さと引き換えに何を手放すかという、これからの設計者全員が向き合う問いです。

iOS 27は「単なるiPhoneの更新」ではない——AIウェアラブル時代への布石

ここで重要な文脈を補足する必要があります。Beebomの記事には記載がありませんが、一次情報のMacRumorsは「AppleがiOS 27でVisual Intelligenceに大きく傾斜するのは、同社がこの機能を活用するAIウェアラブル機器を開発中だからだ」と明記しています。

具体的には、Bloombergのマーク・ガーマン氏が2026年2月に報じた3つのデバイス——スマートグラス、カメラ付きAirPods、ウェアラブルAIペンダント——です。スマートグラスは最短で2026年12月の生産開始を目指し2027年の発売が目標、カメラ付きAirPodsは最短で2026年内の提供が見込まれ、AIペンダントは最短で2027年とされるものの、キャンセルの可能性も残ると報じられています。

これら3デバイスの共通点は、いずれもユーザーが意図的にカメラを構えなくても、装着しているだけで周囲を「見続ける」ことです。Camera Controlボタンを押す動作すら不要になる——つまり、シャドウ・ワークの自動化が「ボタンを押す」という最小限の動作からも解放される段階に入る、ということです。栄養成分表を見ようとした瞬間にHealth appが記録し、すれ違った相手の名刺がポケットの中で連絡先に収まる。ボタンを押した記憶すらない自動化——これがアンビエントAI(常時動作するAI)が描く世界像です。

iOS 27のVisual Intelligence拡張は、iPhoneという単一デバイスの更新というよりも、Apple全体が「明示的な操作からアンビエントへ」という移行を進めるためのソフトウェア基盤づくりとして読むのが妥当でしょう。Camera Controlボタンを押すという明示的な動作で起動する機能を、まずiPhoneで成熟させる。それが安定してから、ボタンを押す必要すらない常時稼働のウェアラブルへ移していく——このシーケンスは、Apple Watchが当初iPhoneの周辺機器として始まり、徐々に独立性を獲得していった経緯と重なります。

撮影される側の論理——「同意」の所在を考える

ここで議論を、自動化される労働の話から、自動化が及ぶ対象の話に移します。シャドウ・ワークが消える便利さの陰で、もうひとつ静かに変わりつつあるのが、「撮影される側」の立ち位置です。

カメラが「明示的に構える装置」だった時代、撮影される側は構える動作によってその瞬間を察知できました。ところがVisual Intelligenceが拡張され、ウェアラブルへ移行していくと、この前提が崩れます。これは仮想的な懸念ではありません。13年前にすでに、ひとつの大きな失敗例があります。

Google Glassが開発者向けExplorer Editionとして提供を開始したのは2013年でした。$1,500の価格で招待制で提供されたこの機器は、しかし2014年には公衆の不興を買い、装着者を「Glasshole」と揶揄する語が広まり、バーやレストラン、映画館などが相次いで装着禁止を打ち出しました。Googleは2015年に一般向け販売を停止、企業向けに方向転換しましたが、最終的には2023年に完全に終了しています。技術的な未熟さもあったとされますが、決定打となったのは「カメラがいつ作動しているのか、撮影される側に分からない」という構造そのものへの社会的拒絶でした。

10年が経ち、Meta社のRay-Ban Metaは設計レベルでこの問題に対処を試みています。録画中は本体右側面の白色LEDが点灯し、周囲に「いま記録している」ことを伝える仕組みです。Metaの公式ガイドラインには「LEDの仕組みを周囲の人に説明しましょう」という一文すら含まれており、企業として撮影される側への配慮を製品設計に組み込もうとしている姿勢は読み取れます。

ただし、この設計が万全かというと、そう単純でもありません。LEDは注意して見ていないと気づきにくく、404 Mediaは2025年10月に、わずか$60でこのLEDを物理的に無効化する改造サービスが米国で広がっていることを報じました。さらにBBCは2026年1月、Ray-Ban Metaを使って女性を無断で撮影し個人情報を聞き出す行為を行う事例を報じています。撮影される側に通知する機構を設計に埋め込んでも、それを骨抜きにする経済的・社会的経路はあっという間に開拓される——この事実は、技術的な解決策だけでは「撮影される側の同意」問題に対処しきれないことを示しています。

法制度の側はどう動いているでしょうか。EUは2024年に成立したAI Actで、公共の場における「リアルタイム遠隔生体識別」を法執行目的では原則禁止としました。条文の主要な対象は警察当局による顔認識スキャンですが、その背景にあるのは「常時監視されているという感覚そのものが、市民の自由な行動を委縮させる(チリングエフェクト)」という認識です。同法はあくまで法執行向けの規定で、消費者向けスマートグラスを直接規制するものではありませんが、規制側の問題意識の方角は明確です。

Appleは歴史的に、プライバシーをマーケティングメッセージの中心に据えてきました。iOS 27でVisual Intelligenceを拡張し、その先にウェアラブル製品群を控えさせている同社が、Google Glassの失敗とRay-Ban Metaの綱渡りを横目で見ながら、撮影される側への通知をどのように設計してくるかは、来たるWWDC 2026の隠れた注目点になるはずです。LEDひとつでは解決しないこの問題に、Appleがどんな答えを用意しているのか——あるいは、用意できないまま製品を出すのか。

結びに——便利さの裏側を見続ける

リークの段階で読み取れる範囲には限りがあります。4機能がiOS 27に搭載されるか段階的提供になるかも不明と報じられています。それでも、4機能のうち2つがVisual Intelligenceに集中している事実、そしてその拡張がウェアラブル戦略の足元を固める作業として位置づけられている事実は、Appleが向かう方角を示す道標としては十分に明確です。

私たちが視覚労働の自動化から得るものは、おそらく大きい。手で記録していた数十秒の積み重ねから解放されることの価値は、無視できないものです。けれどその交換において、何を手放しているのかは、便利さの推進者からは語られにくい。「記録」という行為が私たちの注意のあり方を支えていた可能性、撮影されている自覚のないまま生活する人々が増えていく社会の含意、シャドウ・ワークがAIに移譲されたとき残る「自分の生活への手触り」がどう変質するのか——これらの問いは、Appleが用意してくれるものではなく、私たち自身が抱え続ける必要があります。

WWDC 2026で何が発表されるか——あるいは何が「発表されない」か——を見るとき、私たちはこの方角と、その隣にある問いを頭に置いておくとよさそうです。

【用語解説】

Apple Intelligence
Appleが2024年に発表したAI機能のプラットフォーム。文章の要約・生成、画像生成、Siriの強化、Visual Intelligenceなど複数のAI機能を統合する。iPhone 15 Pro以降・iPad(Apple Silicon搭載)・Mac(Apple Silicon搭載)に対応。日本語対応はiOS 18.4から。

Visual Intelligence(ビジュアルインテリジェンス)
Apple Intelligenceの機能のひとつ。当初はiPhone 16シリーズのCamera Controlボタン経由で2024年に提供を開始したが、iOS 18.4以降はiPhone 15 Pro/Pro MaxおよびiPhone 16eにも拡張され、アクションボタンまたはコントロールセンターから起動できる。カメラで捉えたものをAIが解析して情報を返す。iOS 26からはスクリーンショットへの対応も追加。

Camera Control(カメラコントロール)
iPhone 16シリーズから追加された本体右側面のハードウェアボタン。短押しでカメラ起動、長押しでVisual Intelligence起動など、さまざまな操作に対応する。

Smart Tab Groups(スマートタブグループ)
SafariがAIでタブの内容を解析し、自動的にTab Groupsを命名する機能。iOS 27に向けて開発中とコードから確認されたもので、正式発表は未了。

WWDC(Worldwide Developers Conference)
Appleが毎年6月頃に開催する開発者向けカンファレンス。iOS・macOS・watchOSなどの次期OSが発表される主要イベント。WWDC 2026での次期OS発表が期待されている。

アンビエントAI(Ambient AI)
ユーザーが明示的に起動・操作しなくても、日常の行動の中で自然に機能するAIのあり方を指す概念。スマートグラスやカメラ付きウェアラブルを通じて常時稼働するAIが代表的な形態。

シャドウ・ワーク(Shadow Work)
哲学者イヴァン・イリイチが1981年の著書で提唱した概念。賃金労働を成立させるために必要だが、報酬が支払われない無償の周辺労働を指す。家事、通勤、書類記入のほか、現代ではセルフレジ、オンライン予約、各種アカウント管理など、消費者が引き受ける作業全般を含むものとして拡張的に理解されている。

チリングエフェクト(Chilling Effect)
法的規制や監視の存在が、市民の自由な発言・行動を間接的に抑圧してしまう現象。EU AI Actの理由書でも、常時監視への懸念がもたらすこの効果が、生体識別規制の根拠のひとつとして言及されている。

【参考リンク】

Apple Intelligence 公式ページ(外部)
Appleが提供するAI機能プラットフォームの公式紹介ページ。Visual Intelligenceを含む各機能の概要と対応デバイスを確認できる。

Apple Health(ヘルスケア)(外部)
iPhoneおよびApple Watchで収集した健康・フィットネスデータを一元管理するAppleのプラットフォーム。iOS 27でVisual Intelligenceとの連携が検討されている。

Apple Wallet(ウォレット)(外部)
クレジットカード・交通系IC・チケットなどをiPhoneで管理するAppleの決済・パス管理アプリ。AIによる物理カード・チケットのデジタル化機能が開発中とされる。

MacRumors(外部)
Apple製品に関するニュース・リークを精力的に報じる英語メディア。今回の報道の一次情報源。リーカー情報の精度が高く、Apple関連報道の定番参照先。

MyFitnessPal(外部)
バーコードスキャンや手入力で食事・栄養を記録する、世界的シェアを持つ食事管理アプリ。Appleの栄養スキャン機能と直接競合する既存サービス。

Ray-Ban Meta 公式プライバシー解説(外部)
Meta社が公開するRay-Ban Metaのプライバシー設定および使用上のガイドライン。LED通知機構を含むスマートグラスの「撮影される側」への配慮設計を確認できる。

EU AI Act 第5条 解説(外部)
EU AI Actの禁止事項を定めた第5条の条文と注釈。リアルタイム遠隔生体識別の原則禁止と、その例外規定を確認できる一次資料。

【参考記事】

4 New Apple Intelligence Features Found in Apple Code, Likely in iOS 27(外部)
MacRumors(2026年4月16日)。本記事の一次情報源。Nicolás Alvarezが発見したバックエンドコードをもとに4機能を報告。AIウェアラブル文脈を補足する重要情報を含む。

Apple Introduces iPhone 16 and iPhone 16 Plus(外部)
Apple Newsroom(2024年9月9日)。Visual IntelligenceおよびCamera Controlの初出発表。「撮るカメラ」から「見て理解するカメラ」への転換点となった公式発表。

Apple Developing Three New AI Wearables(外部)
MacRumors(2026年2月17日)。スマートグラス・カメラ付きAirPods・AIペンダントの3デバイス開発を報告。iOS 27強化の背景文脈として参照。

A $60 Mod to Meta’s Ray-Bans Disables Its Privacy-Protecting Recording Light(外部)
404 Media(2025年10月)。Ray-Ban MetaのLED通知を無効化する改造キットが米国で出回っている実態を調査報道。技術的プライバシー配慮が骨抜きにされる現実を示した記事。

Why Did Google Discontinue Google Glass: The Real Story Behind the Flop(外部)
The Wave。Google Glassの2013年〜2023年の興亡を、技術的失敗ではなく社会的拒絶の観点から整理。「Glasshole」現象の背景理解に。

Red Lines under the EU AI Act: Restricting Real-time Remote Biometric Identification Systems(外部)
Future of Privacy Forum。EU AI Act第5条の生体識別規制を「チリングエフェクト」概念とともに解説した法律解析。規制動向セクションの裏付け資料。

【編集部後記】

iOS 27のリーク機能を眺めていると、「便利になる」という言葉のあたたかさと、その裏側にあるかすかな寂しさを、同時に感じます。栄養成分表を読み取る数十秒、名刺を整理する数分、ブラウザタブを分類する数十分——それらは確かに小さな摩擦ですが、その摩擦の中に「自分が何を食べ、誰と会い、何に関心を向けてきたか」を一度なぞる時間が紛れていたのかもしれません。

シャドウ・ワークが消えるとき、私たちが手放すのは作業時間だけでなく、自分の生活への手触りでもあるのではないか。

すべてを自動化するか、すべてを手で続けるか、という二択ではないはずです。便利にしてもらいたい記録と、あえて手元に残しておきたい記録を、私たち一人ひとりが選び分ける時代に入っているのだと思います。私たちは、AIに任せたい「視覚労働」と、自分の指先に残しておきたい「視覚労働」を、それぞれ思い浮かべることができるでしょうか。

そして、その選択は私たちが「記録する側」だけの問題でもありません。気づかぬうちに「記録される側」にもなっていく、という地続きの話でもあります。レンズが世界に染み込んでいく数年で、私たちの「注意のかたち」も、誰かを「見る」ことの作法も、少しずつ作り変わっていくはずです。WWDC 2026で何が見え、何が伏せられるのか。急がず、私も一緒に追いかけていきます。

投稿者アバター
乗杉 海
SF小説やゲームカルチャーをきっかけに、エンターテインメントとテクノロジーが交わる領域を探究しているライターです。 SF作品が描く未来社会や、ビデオゲームが生み出すメタフィクション的な世界観に刺激を受けてきました。現在は、AI生成コンテンツやVR/AR、インタラクティブメディアの進化といったテーマを幅広く取り上げています。 デジタルエンターテインメントの未来が、人の認知や感情にどのように働きかけるのかを分析しながら、テクノロジーが切り開く新しい可能性を追いかけています。