Gemini tự đặt Uber và đồ ăn: Khi AI bắt đầu "cướp" quyền điều khiển màn hình

damonunity
26/2/2026 10:39Phản hồi: 0
EditEdit
Gemini tự đặt Uber và đồ ăn: Khi AI bắt đầu "cướp" quyền điều khiển màn hình
Việc ra lệnh cho trợ lý ảo vốn chẳng có gì mới, nhưng để nó tự mở app, bấm chọn từng bước như một con người thực thụ thì lại là chuyện khác. Tại sự kiện Samsung Unpacked 2026, Google vừa hiện thực hóa kịch bản này khi cho phép Gemini trực tiếp thao tác trên các ứng dụng như Uber hay DoorDash.
Đây không còn là những câu lệnh trả kết quả bằng văn bản vô hồn, mà là sự khởi đầu của một "hệ thống thông minh" thay thế hoàn toàn cách chúng ta tương tác với smartphone. Tính năng này sẽ sớm xuất hiện dưới dạng bản xem trước trên dòng Galaxy S26Pixel 10 tại thị trường Mỹ và Hàn Quốc.

Trợ lý ảo không còn đã biết làm việc nhà?

Khác với việc chỉ đưa ra gợi ý, Gemini hiện tại có thể thực hiện các tác vụ tự động hóa (task automation). Khi nhận được lệnh "Đặt cho tôi một chuyến Uber đến địa điểm A", AI sẽ tự động kích hoạt ứng dụng trong một cửa sổ ảo, thực hiện các bước chọn loại xe, điểm đến và lộ trình. Người dùng có thể quan sát toàn bộ quá trình này diễn ra trên màn hình hoặc để nó chạy ngầm.
[​IMG]

Điểm mấu chốt nằm ở khả năng reasoning (suy luận). Nếu một món ăn trong thực đơn DoorDash hết hàng, Gemini sẽ thông báo để người dùng chọn món thay thế thay vì đứng hình. Tuy nhiên, để đảm bảo an toàn cho ví tiền, Google vẫn giữ lại một chốt chặn cuối cùng: AI chuẩn bị mọi thứ, nhưng chính bạn mới là người nhấn nút "Thanh toán" hoặc "Xác nhận đặt xe".

Cách Google "lách" qua rào cản của các nhà phát triển ứng dụng

Câu hỏi đặt ra là làm sao Gemini có thể hiểu và bấm đúng nút trong hàng triệu ứng dụng có giao diện khác nhau? Google đang sử dụng một "chồng công nghệ" kết hợp. Đầu tiên là khuyến khích lập trình viên mở các hàm chức năng thông qua MCP (Model Context Protocol) hoặc khung chức năng ứng dụng của Android.

Trong trường hợp ứng dụng "đóng cửa" không hỗ trợ, Gemini sẽ sử dụng thị giác máy tính và khả năng suy luận để tự mò mẫm giao diện. Điều này biến Android từ một hệ điều hành (Operating System) thuần túy trở thành một hệ thống trí tuệ (Intelligence System). Tuy nhiên, điều này cũng đặt ra thách thức cho các hãng như Uber, vốn luôn muốn người dùng lướt qua các quảng cáo gói hội viên (Uber One) thay vì để AI đi thẳng đến mục tiêu cuối cùng.

1.-Gemini-with-task-Automation.webp

Tiện lợi hay chỉ là một lớp Bloatware mới?

Nhìn vào thông số, việc tích hợp sâu này đòi hỏi phần cứng cực kỳ khắt khe, đó là lý do vì sao chỉ Pixel 10 và Galaxy S26 mới được "hưởng sái" đầu tiên. Anh em cần tỉnh táo: việc để Gemini quét giao diện app liên tục bằng thị giác máy tính sẽ tiêu tốn tài nguyên kinh khủng. Nếu chip NPU không đủ gánh, máy sẽ bị throttling (giảm xung do quá nhiệt) và ngốn pin như uống nước.

Cái bẫy thực sự ở đây là bloatware thế hệ mới. Khi AI thay bạn làm mọi thứ, các hãng sẽ có lý do để cài cắm thêm hàng tá "dịch vụ nền" chạy ngầm. Nếu không tối ưu tốt, chiếc flagship 40 triệu của bạn sẽ sớm trở thành một đống hỗn độn các tiến trình chạy ẩn, làm chậm máy chỉ để đổi lấy vài giây rảnh tay khi đặt đồ ăn.
[​IMG]

Đừng kỳ vọng nó mượt mà ngay từ đầu; việc AI "nhấn nhầm" nút hoặc treo app là kịch bản chắc chắn sẽ xảy ra khi giao diện ứng dụng cập nhật mà model AI chưa kịp thích nghi.

Cá nhân mình vẫn tin vào ngón tay của mình hơn là giao toàn bộ quyền điều khiển màn hình cho một con bot chưa biết lúc nào sẽ "ngáo" vì một bản cập nhật giao diện của Uber. Còn anh em, anh em chọn rảnh tay hay chọn một chiếc máy sạch và ổn định?

Nguồn: theverge & cá nhân

Xu hướng

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2026 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: 351/56 Lê Văn Sỹ, P. Nhiêu Lộc, Tp HCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép cung cấp dịch vụ MXH số 134/GP-BVHTTDL, Ký ngày: 30/09/2025