Google の ARCore は、豊富な機能セットと広大なリーチを誇る強力な SDK であり、拡張現実(AR)体験の開発者の中で最も人気のある SDK の 1 つとなっています。私たちは Google と緊密に協力して、新しくリリースされた ARCore の機能に Unity ユーザーが迅速にアクセスできるよう準備してきました。ARCore Depth API のリリースは、AR Foundation をベースとした体験に、より高精度な物理環境理解と、よりリアルなビジュアルをもたらすものであり、重要なマイルストーンと言えます。
ARCore では、深度画像の生成に複数の種類のセンサーを利用できます。RGB カメラのみを搭載したスマートフォンについては、運動から深度を推定するアルゴリズムが採用されています。これは、スマートフォンを移動させながら連続撮影したカメラ画像を比較して、各ピクセルまでの距離を推定するものです。これに対応することで、何億台もの Android スマートフォンで深度データを利用できるようになっています。また、Time of Flight カメラを搭載したデバイスでは、さらに正確な深度データを取得できます。
AR Foundation に追加され新機能は以下のとおりです。
- 自動オクルージョン
- 深度画像へのアクセス
目次
簡単になったオクルージョン
ARCore の深度情報による効果が最も顕著に表れるのは、デジタルコンテンツと実世界のオブジェクトをブレンドした際のリアルな表現です。
AR Foundation のパススルービデオに対する既存のサポートを拡張し、ARCore が提供するピクセル単位の深度情報を追加することにより、サポートされているデバイス上でオクルージョンを手軽に動作させられるようになりました。AR Camera と AR Background Renderer コンポーネントを保持しているゲームオブジェクトに AR Occlusion Manager を追加するだけで、深度データがシェーダーによって自動的に評価され、このブレンディング効果が作成されます。
AR Foundation ですでにサポートされている ARCore のライティング推定機能にオクルージョンを組み合わせれば、ほぼ継ぎ目の見えないビジュアルクオリティを拡張現実アプリで実現できます。
深度画像を使って世界とインタラクト
AR Foundation では、自動オクルージョンに使用されるのと同じピクセル単位の深度データに簡単にアクセスすることができます。深度データは、ユーザーの周囲環境との高度なインタラクションを実現するための強力なツールとなります。たとえば、深度データを使って実世界のオブジェクトを表すモデルを作成し、それを Unity の物理演算システムに供給することもできます。これにより、デジタルコンテンツが物理環境に反応して相互作用しているように見せることもできます。
この機能は、新しい AR ゲーム体験への扉を開くものです。その 1 つの例が、Reality Crisis の「The SKATRIX」です。このタイトルでは、ARCore Depth API を利用して生成されたメッシュによって、物理的な環境が AR スケートパークに変換されます。
生の深度データにアクセスすることで、従来では不可能だった、ユニークでインタラクティブな AR 体験を作成することが可能になります。
今すぐお試しください
AR Foundation と ARCore XR プラグインパッケージの 4.1 バージョンには、開発を始めるために必要なものがすべて含まれています。これらは Unity 2019 LTS 以降に対応しています。自動オクルージョンと深度データの設定方法を示すサンプルは、GitHub の AR Foundation Samples にあります。
ARCore Depth API によってもたらされる優れたビジュアルとリッチな体験は素晴らしいものです。Unity では、今後も Google との緊密な協力関係を継続し、AR Foundation 開発者の皆様に素晴らしい AR 機能を提供していきたいと考えています。
詳細については、Google の ARCore Depth API に関するアナウンスと、Unity で作成された技術サンプル(Depth Lab アプリで見られます)をご覧ください。最後に、この最新バージョンの AR Foundation をお試しになる際には、Unity Handheld AR フォーラムにご参加ください。この新しい機能を使用して皆様が創り出したコンテンツにお目にかかることを楽しみにしています。また、フィードバックもお待ちしております。