Appleは、WWDC 2017でARKitの導入を明らかにしました。ARKitは、デジタルオブジェクトと周囲の環境情報と融合させることで、まったく新しい実世界での経験をもたらしてくれます。
Appleには、iPhoneとiPadという人気商品があり、これらのユーザーに対して世界中の開発者が、競ってiOS 11向けに拡張現実を組み込んだアプリケーションを提供する可能性があります。対象となるiPhoneとiPadのは最終的に数億台になると考えられますから、サードパーティ開発者は、積極的にゲームなどにARを組み込むに違いありません。
Appleは、これによってARを組み込んだアプリが大量に登場する来年にはApp Storeでの収入を飛躍的に高めることができるかもしれません。
AppleのARKitは、Visual Inertial Odometry(VIO)を使用して、周囲の世界を正確に追跡します。 VIOは、カメラセンサデータをジャイロ・加速度センサーなど各種センサーが取得したデータを開発者に提供するCoreMotionと融合させます。これらの2つのインプットにより、デバイスが、室内でどのように動くかを追加のキャリブレーションなしに高精度に感知することができます。
ARKitを使用すると、iPhoneとiPadは、カメラビューを分析し、テーブルや床などの平面を検出し、仮想オブジェクトを配置することができます。
ARKitはまた、カメラセンサーを使用してシーン内の光の総量を推定し、適切な照明を仮想オブジェクトに適用することも行います。
これらのレンダリングや最適化のためにARKitにはAppleの高性能プロセッサ、A9やA10プロセッサが必要です。
また、 Metal、SceneKitのほか、UnityやUnreal Engineのようなサードパーティのツールでも、ARKitの最適化を利用可能です。
今秋発売されるiPhone 8にはOLEDディスプレイや高性能プロセッサが搭載されるので、ARの美しい表現が楽しみです。
(参考:Introducing ARKit)
Last Updated on 2017年6月12日 by Editor
※このサイトの記事には「噂」や「疑惑」など、不確定な情報が含まれています。ご了承ください。(管理人)