Từ Google Pixel 4, Android sẽ hỗ trợ nhận thức về không gian

Dung Thuy Vuong
10/5/2021 8:59Phản hồi: 0
Để đối phó với vấn đề của Apple về việc nhúng cảm biến LiDAR vào các mẫu iPad Pro và iPhone 12 Pro, Google đang cố gắng bù đắp cho sự thiếu hụt các điểm đầu vào khác này. Giờ đây, Google đã thông báo rằng camera kép trong thiết bị di động hàng đầu mới nhất của hãng sẽ cho phép sử dụng kéo dài như một thành phần cảm biến độ sâu thông qua cài đặt hệ thống.

Theo tin tức, công ty đã âm thầm bổ sung hỗ trợ “cảm nhận độ sâu âm thanh nổi của camera kép” trong bản cập nhật ARCore mới nhất của Google và cài đặt các ứng dụng bộ công cụ AR trên các thiết bị Android tương thích.

Theo cập nhật mới nhất của trang “Thiết bị được hỗ trợ ARCore” trên trang web Nhà phát triển của Google, dự kiến việc hỗ trợ này sẽ đến thông qua các bản cập nhật phần mềm trong vài tuần tới.
Nói cách khác, đối với điện thoại Android có hỗ trợ camera kép, hỗ trợ API sâu mới nhất có thể cải thiện đáng kể trải nghiệm AR, chẳng hạn như các hiệu ứng đặc biệt hỗn hợp của “Five Nights” dựa trên công nghệ thực tế tăng cường trong trải nghiệm AR.

Đồng thời, phiên bản 1.23.210260603 của dịch vụ Google Play cho AR cũng liệt kê dòng chữ “Độ sâu âm thanh nổi của camera kép trên các thiết bị được hỗ trợ” trong nhật ký cập nhật, điều này cho thấy bản cập nhật này không dành cho tất cả điện thoại Android.

Về bản cập nhật này, mặc dù có một vài chi tiết liên quan nhưng nhìn chung chúng ta đã biết rằng bản cập nhật của Google đã nhận ra chức năng “cảm nhận độ sâu camera kép” cho điện thoại Android có hai camera trở lên từ cấp phần mềm. Điều này có nghĩa là các điện thoại Android trong tương lai có thể nhận ra nhận thức không gian chiều cao hơn ngay cả khi không có sự hỗ trợ phần cứng của cảm biến LiDAR. Và chức năng API này sẽ trực tiếp nâng cao trải nghiệm đắm chìm của các ứng dụng AR trong ARCore.

Động thái này gợi nhớ đến ARKit của Apple ra mắt vào năm 2017 và việc Google nhanh chóng chuyển dự án Project Tango (dựa vào các nhà sản xuất điện thoại thông minh để chuyển các thiết bị có cảm biến độ sâu) sang ARCore. ARCore, như ARKit, có thể kết hợp trí thông minh tiêu chuẩn. Dữ liệu được cung cấp bởi cảm biến máy ảnh của điện thoại di động dựa trên dự đoán của máy học để đạt được trải nghiệm AR tuyệt vời.

Bây giờ, động thái này là sau khi Apple đã đưa cảm biến độ sâu lên điện thoại thông minh phổ thông thông qua công nghệ LiDAR. So với phần cứng của Apple, chức năng của Google có thể không chính xác bằng LiDAR hoặc các thiết bị cảm biến độ sâu chuyên dụng khác, nhưng nó đủ để định vị lại tương lai của điện thoại thông minh nhiều camera.

Đối với Google, đó là một bước đi khôn ngoan khi luôn phù hợp với các tính năng của đối thủ cạnh tranh. Tuy nhiên, đánh giá từ nội dung của nhật ký cập nhật hiện tại, chỉ có khoảng một phần ba thiết bị tương thích với ARCore hỗ trợ API độ sâu, điều này chứng tỏ rằng không phải tất cả các máy ảnh đều có thể được ghép nối để trở thành thiết bị cảm biến độ sâu, điều này sẽ mất một thời gian để trở nên phổ biến.

Google thường tung ra các tính năng ARCore như vậy với sự phô trương lớn, vì vậy chúng tôi sẽ chú ý đến điều này. Nhưng bản cập nhật lặng lẽ này dường như xác nhận những lo lắng của Google về việc “qua sông với Apple”. Công ty khổng lồ này bắt đầu sớm trong ngành VR / AR nhưng lại vội vã đến muộn dường như đang sử dụng lợi thế hệ thống và phần mềm của riêng mình.
Chia sẻ

Xu hướng

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019