아크 잇 5 Location Anchors를 런던과 미국 전역의 더 많은 도시에 제공하여 다음과 같은 특정 장소에 대한 AR 경험을 만들 수 있습니다. 런던 눈, 타임 스퀘어, 그리고 심지어 당신의 이웃까지. 아크 잇 5 또한 모션 추적에 대한 개선 사항과 울트라 와이드 카메라의 얼굴 추적 지원 기능이 있습니다. 아이패드 프로(5세대). 그리고 새로운 앱 클립 코드 앵커를 사용하여 앱 클립 또는 ARKit 앱의 가상 콘텐츠를 인쇄된 또는 디지털 앱 클립 코드에 고정할 수 있습니다.
확장된 얼굴 추적 지원
얼굴 추적 지원은 다음을 포함하여 A12 Bionic 칩 이상을 탑재한 모든 장치의 전면 카메라로 확장됩니다. 아이폰SE,더 많은 사용자가 전면 카메라를 사용하여 AR 경험을 즐길 수 있습니다. 얼굴 추적은 이제 최신 초광각 카메라에서도 지원됩니다아이패드 프로(5세대). TrueDepth 카메라를 사용하여 한 번에 최대 3명의 얼굴을 추적하여 Memoji 및 Snapchat과 같은 전면 카메라 경험을 강화하십시오.
위치 앵커
도시 및 유명 랜드마크와 같은 특정 장소에 AR 경험을 배치하세요. Location Anchors를 사용하면 AR 창작물을 특정 위도, 경도 및 고도에 고정할 수 있습니다. 사용자는 카메라 렌즈를 통해 실제 개체를 보는 것처럼 가상 개체 주위를 이동하여 다른 관점에서 볼 수 있습니다.
깊이 API
LiDAR 스캐너에 내장된 고급 장면 이해 기능을 통해 이 API는 주변 환경에 대한 픽셀당 깊이 정보를 사용할 수 있습니다. Scene Geometry에 의해 생성된 3D 메쉬 데이터와 결합될 때, 이 깊이 정보는 가상 객체의 즉각적인 배치를 가능하게 하고 그것들을 물리적 환경과 매끄럽게 혼합함으로써 가상 객체 폐색을 훨씬 더 사실적으로 만듭니다. 이를 통해 보다 정확한 측정을 수행하고 사용자 환경에 효과를 적용하는 등 앱 내에서 새로운 기능을 구현할 수 있습니다.
장면 지오메트리
바닥, 벽, 천장, 창문, 문 및 좌석을 식별하는 레이블로 공간의 토폴로지 맵을 만듭니다. 현실 세계에 대한 이러한 깊은 이해는 가상 개체에 대한 개체 폐색 및 실제 물리학의 잠금을 해제하고 AR 워크플로를 강화하는 데 더 많은 정보를 제공합니다.