iOSにおけるデプス(深度)関連APIの実装方法を示すサンプル集「iOS-Depth-Sampler」をオープンソースで公開しました。
ソースコードは GitHubに置いてあるので、ご自由にご活用ください。Swift 4.2です。
今のところ6つのサンプル(後述)が入っています。本記事のタイトル「網羅した」は少し大げさですが、撮影済みの写真からデプスを取得する方法から、リアルタイムに取得する方法、ARKitで取得する方法、フロント/リアカメラ、Disparity / Depth / Portrait Matteといったタイプと相互変換、デプスを利用した背景合成や3D空間へのマッピングといったサンプルも備えています。
(2次元の写真をデプスを利用して3D空間へマッピング)
今後iOSにデプス関連の機能が追加されるたびに、サンプルも追加していく予定です。
利用可能なデバイス
デュアルカメラもしくはTrueDepthカメラを持つデバイスを使用してください。 7 Plus, 8 Plus, X, XS, XRをお持ちの方はぜひビルドして遊んでみてください。リア(Dual Camera)とフロント(TrueDepth Camera)でそれぞれサポートしている機能が全然違うので、X or XSが理想です。
利用方法
git cloneしてXcode 10でビルドしてiOS 12端末 1にインストール
以上です。Metalを使用しているのでシミュレータでは動作しない点、ご注意ください。
サンプル一覧
Real-time Depth
リアルタイムにカメラから深度情報を取得し、可視化するサンプルです。
Real-time Dpeth Mask
リアルタイムにカメラから取得した深度情報をマスクとして使用し、背景合成を行うサンプルです。
Depth from Camera Roll
カメラロールにある撮影済みの写真から深度情報を取り出し、可視化するサンプルです。標準のカメラアプリのポートレートモードで撮影した写真を利用できます。
Portrait Matte
Portrait Matte (Portrait Effect Matte)を使用し、背景を除去するサンプルです。ポートレートモードで「人間を撮影」した写真を利用できます。要iOS 12。
カメラはフロント・リアどちらもOKです。
ARKit Depth
ARKitで深度情報を取得し、可視化するサンプルです。
現状、ARKitではARFaceTrackingConfiguration
使用時のみ(つまりフェイストラッキングARのときだけ)この方法で(※後で貼るスライド内で説明しています)深度情報を取得できます。
2D image in 3D space
写真(2D)を深度をz値として3D空間にマッピングするサンプルです。
AR occlusion
[WIP] An occlusion sample on ARKit using depth.
そもそもデプスって?
「デプスって何?」「何が嬉しいの?」「どういう仕組みで計測してるの?」といったところは拙スライドもご参照ください。
デモやアニメーションを交えているので、動画の方がおすすめです。
付録: iOSで深度データにアクセスする方法のまとめ(書きかけ)
Qiitaにでも書こうとまとめてたのですが、途中になってるので、ここに一旦おいておきます。
PHAssetから深度マップ画像を生成
requestContentEditingInput(with:nil) { (contentEditingInput, info) inguardleturl= contentEditingInput?.fullSizeImageURL else { fatalError() } letdepthImage= CIImage(contentsOf:url, options:[CIImageOption.auxiliaryDisparity : true])!... }
深度データを持つPHAssetだけを取得する
letresultCollections= PHAssetCollection.fetchAssetCollections( with: .smartAlbum, subtype: .smartAlbumDepthEffect, options:nil) varassets:[PHAsset]= [] resultCollections.enumerateObjects({ collection, index, stop inletresult= PHAsset.fetchAssets(in:collection, options:nil) result.enumerateObjects({ asset, index, stop in assets.append(asset) }) })
PHAssetが持つ深度データからAVDepthData生成
アセットのURLを指定して、CGImageSource
を作成する。
guardletsource= CGImageSourceCreateWithURL(url as CFURL, nil) else { fatalError() }
CGImageSourceCopyAuxiliaryDataInfoAtIndex
を使用する
letinfo= CGImageSourceCopyAuxiliaryDataInfoAtIndex(source, 0, kCGImageAuxiliaryDataTypeDisparity) as? [String :AnyObject]
letinfo= CGImageSourceCopyAuxiliaryDataInfoAtIndex(source, 0, kCGImageAuxiliaryDataTypeDepth) as? [String :AnyObject]
ここで得られる辞書型データは次のような情報を持っている。
- the depth data (CFDataRef) - (kCGImageAuxiliaryDataInfoData),
- the depth data description (CFDictionary) - (kCGImageAuxiliaryDataInfoDataDescription)
- metadata (CGImageMetadataRef) - (kCGImageAuxiliaryDataInfoMetadata)
この辞書型データをそのままAVDepthData
のイニシャライザに渡せる。
letdepthData= try! AVDepthData(fromDictionaryRepresentation:info)
CGImageSourceCopyProperties
から深度に関する情報を取得する
以下のように辿って深度に関する情報を得ることもできる。
guardletsourceProperties= CGImageSourceCopyProperties(source, nil) as? [String:AnyObject] else { fatalError() } guardletfileContentsProperties= sourceProperties[String(kCGImagePropertyFileContentsDictionary)] as? [String :AnyObject] else { fatalError() } guardletimages= fileContentsProperties[String(kCGImagePropertyImages)] as? [AnyObject] else { returnnil } for imageProperties in images { guardletauxiliaryDataProperties= imageProperties[String(kCGImagePropertyAuxiliaryData)] as? [[String :AnyObject]] else { continue } ... }
こういう情報が取れる。
["Width": 576, "AuxiliaryDataType": kCGImageAuxiliaryDataTypeDisparity, "Height": 768]
とはいえ深度マップのデータそのものは入っていない。
AVCaptureSynchronizedDataCollectionからデータを取り出す
AVCaptureDataOutputSynchronizerDelegate
のdidOutputメソッドの第2引数からAVCaptureSynchronizedDataCollection
オブジェクトが得られる。
funcdataOutputSynchronizer(_ synchronizer:AVCaptureDataOutputSynchronizer, didOutput synchronizedDataCollection:AVCaptureSynchronizedDataCollection) { ifletsyncedDepthData= synchronizedDataCollection.synchronizedData(for:depthDataOutput) as? AVCaptureSynchronizedDepthData, !syncedDepthData.depthDataWasDropped { letdepthData= syncedDepthData.depthData ... } ifletsyncedVideoData= synchronizedDataCollection.synchronizedData(for:videoDataOutput) as? AVCaptureSynchronizedSampleBufferData, !syncedVideoData.sampleBufferWasDropped { letvideoSampleBuffer= syncedVideoData.sampleBuffer ... } }
iOS 12のPortrait Matte
letinfo= CGImageSourceCopyAuxiliaryDataInfoAtIndex(self, 0, kCGImageAuxiliaryDataTypePortraitEffectsMatte) as? [String :AnyObject]
letmatte= try! AVPortraitEffectsMatte(fromDictionaryRepresentation:info)