أعلنت شركة جوجل في وقت سابق من شهر كانون الأول/ديسمبر الجاري عن دعم إمكانية الكشف عن العمق في تقنية الواقع المعزز للهواتف التي تدعم منصة ARCore التابعة لها، والآن بدأت الشركة إطلاق ميزة دمج الأجسام في خدمة الواقع المعزز في البحث Google Search AR.

وباستخدام كاميرا RGB واحدة، تعمل واجهة برمجة التطبيقات للعمق ARCore Depth API الجديدة على تعزيز خوارزميات العمق من الحركة، إذ تُرسم خريطة للعمق من خلال التقاط “صور متعددة من زوايا مختلفة ومقارنتها أثناء تحريك الهاتف لتقدير المسافة إلى كل بكسل”. وهذا بدوره يسمح بالانسداد، أي “قدرة الكائنات الرقمية على الظهور بدقة أمام أو خلف الكائنات في العالم الحقيقي.


وعند بدء إطلاق هذه الميزة، سوف تظهر أيقونة دائرية الشكل في الزاوية العليا اليمنى، وبالنقر عليها يظهر خياران لتشغيل وإيقاف مزج الكائنات Object Blending On / Object Blending Off.



ولتوضيح آلية عمل الميزة الجديدة، نشرت جوجل عينة لصورة هرة في الواقع المعزز، وقد ظهرت الهرة عند ما يبدو أنها وسائد عن اختيار Object Blending Off، وظهرت خلفها عند اختيار Object Blending On.


يُشار إلى أن جوجل بدأت إطلاق الميزة في خدمة Google Search AR لمستخدمي الهواتف الذكية العاملة بنظام أندرويد والداعمة لمنصة ARCore ، والتي يبلغ عددها نحو 200 مليون.