Phân tích nghiên cứu AI Apple vừa công bố, đoán tính năng AI trên iOS 18

ND Minh Đức
13/4/2024 17:33Phản hồi: 71
Phân tích nghiên cứu AI Apple vừa công bố, đoán tính năng AI trên iOS 18
Dù chỉ tổng có 15 trang, tuy nhiên tài liệu nghiên cứu về AIApple công gần đây đã tiết lộ nhiều điểm cực kỳ thú vị mà dưới góc độ nào đó, đây rất có thể chính là cách họ "teasing" những tính năng AI sẽ được trang bị trên iOS 18 sắp tới, qua đó cũng thể hiện cách mà Apple sẽ khai thác AI cho người dùng.

Sau một thời gian im hơi lặng tiếng trước sự bùng nổ của AI, Apple gần đây đã có nhiều động thái thể hiện sự quan tâm của công ty tới công nghệ trí thông minh nhân tạo và mới nhất, họ phát hành một nghiên cứu khá ngắn gọn về mô hình AI mà công ty đang phát triển.

Nghiên cứu model AI vừa công bố của Apple


Với tên gọi Reference Resolution As Language Modeling (ReALM), nghiên cứu của Apple tập trung vào phân tích thực trạng của cách tiếp cận AI hiện tại, đồng thời đưa ra cách tiếp cận AI mới của họ. Sơ lược một chút, cái mà chúng ta nói về AI suốt thời gian qua chính là xoay quanh câu chuyện dùng "text" để giao tiếp với AI.

99,99% các ứng dụng AI mà anh em có thể tiếp cận được đều sử dụng cách này: anh em nhập câu lệnh (prompt) vào, model sẽ có hiểu coi anh em muốn gì và trả về kết quả. Dù đâu ra có là text, hoặc hình, hoặc video cũng đều dựa trên bản chất này. Tuy nhiên, theo nghiên cứu vừa công bố thì Apple chọn một cách tiếp cận khác.

Screenshot 2024-04-14 004028.png

Trong nghiên cứu, Apple đưa ra một thí dụ người dùng đang tìm nhà thuốc ở gần. Họ đưa ra câu lệnh "tìm giúp tôi nhà thuốc gần đây", lúc này agent (anh em có thể hiểu là một con AI nhân công) sẽ hồi đáp lại "đây là danh sách tôi tìm thấy + [danh sách các nhà thuốc ở gần]". Tới đây thì về cơ bản cũng truyền thống chứ chưa có gì là AI hay thông minh. Nhưng tới đoạn sau mới ghê.

Sau đó, thí dụ giả định rằng người dùng sẽ phản hồi lại theo kiểu: "gọi cho cái ở đường Rainbow", hoặc "gọi cho cái cuối" hoặc “gọi cho số này”. Anh em lưu ý những chữ mình in đậm. Trên thực tế, cách con người giao tiếp chứa đầy những từ ngữ mơ hồ (theo kiểu, vừa hất hàm vừa bảo người bên cạnh "đi ra đó đi", hoặc "nhớ hôm bữa,...". Đối với con người, khi đang "sống" trong ngữ cảnh đó, con người hoàn toàn hiểu được một cách tự nhiên. Tuy nhiên, đối với máy tính, đó vẫn là một sự mơ hồ và hiện hầu hết các model AI không thể hiểu được người dùng muốn gì: “cái” ở đường Rainbow là cái gì, số điện thoại hay số đường, “cái cuối” là cái gì, số này là số nào,…

Có một thuật ngữ ở đây gọi là Reference resolution, nghĩa là một từ bình thường có nghĩa này, nhưng trong câu thì có nghĩa khác. Thí dụ như "Cô ấy yêu con chó của cổ." Con người thì đọc qua cái hiểu được liền, nhưng đối với máy, rất khó để nó xác định được "cô ấy" và "cổ" là 1 chủ thể. Các mô hình AI lớn cũng vẫn gặp rắc rối với chính vấn đề này.

Screenshot 2024-04-14 004058.png

Và lúc này, Apple đề cập tới 2 giải pháp khả dĩ: tìm cách cho máy hiểu được ngữ cảnh đàm thoại và ngữ cảnh đang hiện trên màn hình. Dựa trên 2 thông tin này, AI sẽ xác định được ý định của người dùng qua các câu "số này, cái cuối hay cái ở đường rainbow." Apple đã chỉ ra khó khăn ở chỗ "hiểu được màn hình người dùng" bởi trong quá trình sử dụng tự nhiên, trên đó là một đống cực kỳ phức tạp, gây khó khăn cho các model nhận diện hình ảnh hoặc text trên màn hình kiểu truyền thống. Rõ ràng kỹ thuật nhận diện chữ trên màn hình OCR hay nhận diện hình ảnh thì có lâu rồi, nhưng vấn đề là người dùng cứ lướt lướt màn hình, rồi đủ dạng thông tin ở mọi nơi mà họ đang mở thì điều đó không dễ dàng chút nào.

Cuối cùng, Apple đề xuất 3 cách tiếp cận để thu được nhiều data nhất có thể với mục đích cuối cùng là để hiểu được ngữ cảnh của người dùng, sau đó suy ra họ muốn gì và trả về kết quả cho họ hài lòng. Đó là sự kết hợp của dữ liệu tương tác của người dùng (text họ gõ gì, họ nói gì, họ bấm chỗ nào,...), sau đó là các dữ liệu tổng hợp (kiểu lệnh "phát nó đi,... ) và cuối cùng là dữ liệu thu được trên màn hình (bao gồm trang web đang mở, số điện thoại, email, địa chỉ,...) Tất cả sẽ được tận dụng để model ReALM của Apple sử dụng nhằm hiểu được người dùng muốn gì.

Trong nghiên cứu, Apple đã làm một thử nghiệm, so sánh 4 model với 4 kích thước của họ (lần lượt 80 triệu, 250 triệu, 1 tỷ và 3 tỷ tham số) và so với cả ChatGPT 3.5 và GPT-4 của OpenAI. Kết quả, Apple nói rằng model nhỏ nhất của họ cho khả năng hiểu được các Reference tương đương với GPT-4 (tin đồn nói rằng có 1,76 ngàn tỷ tham số), còn các model lớn hơn thì hoạt động hiệu quả hơn ở khoảng này.

Quảng cáo


00027-472539439.png

Nếu nghiên cứu AI này được áp dụng cho iOS 18?



Đấy là thông tin trong nghiên cứu của Apple vừa công bố về con AI ReALM của họ. Mặc dù đây chỉ là nghiên cứu, chưa có bằng chứng gì rõ ràng về việc nó sẽ được Apple trang bị cho iOS hay iPhone hay không, nhưng nếu hơi AQ một chút thì rõ ràng, họ đã xây model, đã xác định được vấn đề tới giai đoạn này như trong nghiên cứu nói thì nhiều khả năng, iOS 18 sắp tới cũng sẽ có thể được tận dụng được các tính năng này.

Nếu đó là sự thật thì, đây có thể là một cách tiếp cận rất mới trong cách con người tương tác với AI. Nếu trước giờ chỉ nhập text, và phải nhập đúng, thì AI mới hiểu thì bây giờ, nó đọc màn hình luôn chứ không chỉ dựa vào mỗi text để hiểu hơn về ý định trong đầu của người dùng. Và nếu vậy, cách sử dụng iPhone + AI sẽ tự nhiên hơn rất nhiều. Chúng ta vẫn dùng iPhone như trước giờ, và chỉ cần dùng ngôn ngữ tự nhiên thì máy cũng hiểu được chúng ta muốn gì và làm theo. Theo cách mà xưa giờ Apple làm (một số anh em hay chọc là tái định nghĩa), thì điều này là hoàn toàn có cơ sở.

Và nếu vậy, chúng ta còn thấy được quan điểm của Apple trong việc ứng dụng AI chính là hỗ trợ người dùng xài iPhone được tự nhiên hơn - một cách "nâng cấp" các tính năng truyền thống. Nói cách khác, chúng ta sẽ không có tính năng mới, chỉ là có cách dùng mới với những tính năng đó. Và chắc chắn, với sự xuất sắc của Apple trong khâu tiếp thị sản phẩm mới (chắc anh em còn nhớ Dynamic Island), thì AI chắc chắn sẽ đóng vai trò làm nhiều anh em fan vỡ òa nếu nó được ra mắt chính thức tại WWDC.

Có thể thấy, cách tiếp cận này của Apple rất khác so với việc khai thác AI tạo sinh như ChatGPT hay Copilot hoặc Gemini của Google vốn được dùng để tìm kiếm, khai thác thông tin. Thay vào đó, Apple có thể sẽ chọn cách dùng AI để thổi luồng gió mới hơn vào các dịch vụ, tính năng sẵn có của họ trên iPhone hơn.

Quảng cáo


Và một điểm cuối, nếu thực sự những tính năng AI bằng giải pháp nói trên được Apple triển khai thì nó cũng đòi hỏi phần cứng. Do bản chất đã đọc và hiểu quả nhiều dữ liệu, bao gồm cả tương tác lẫn màn hình của người dùng, nên model AI này buộc phải chạy dưới local, ngay trên máy mà không cần mạng. Lúc này, câu hỏi về phần cứng nào được hỗ trợ, và liệu vậy thì mức độ tiêu thụ năng lượng ra sao, hiệu năng thế nào cũng là câu hỏi nếu khi đó mọi thứ diễn ra đúng như vậy.
71 bình luận
Chia sẻ

Xu hướng

AI hả?
Rồi cuối cùng iOS 18 cũng sẽ mất cả năm 2025 để sửa lỗi nóng máy và tụt pin trên iPhone 16 series mà thôi.
GLES
ĐẠI BÀNG
một tháng
@airwalker thg Mod nó chôm comment chỗ paper của tui chứ đâu bác =)))
cách đây 12 ngày trước tui comment trong này:

https://tinhte.vn/thread/apple-sap-cai-tien-siri-bang-ai-realm-giup-siri-thong-minh-va-phan-hoi-nhanh-hon.3774871

Apple sắp cải tiến Siri bằng AI "ReALM": giúp Siri thông minh và phản hồi nhanh hơn

Các nhà nghiên cứu trí thông minh nhân tạo (AI) của Apple vừa hé lộ một công nghệ mới hứa hẹn sẽ giúp Siri thông minh và nhanh nhạy hơn. Công nghệ này có tên gọi là ReALM, viết tắt của cụm "Reference Resolution As Language Modelin" nôm na là xác…
tinhte.vn


nó chỉ là mô hình cải tiến từ flan T5, tóm lại cũng lấy từ người khác custom lại chứ chưa tự phát minh được gì

phân tích paper mà còn thua cả mấy bé sinh viên chuẩn bị làm đồ án tốt nghiệp nữa, chán mod quá.
Anh chứng minh hơn thì anh phải show số liệu, bài toán anh đang hướng tới, phương pháp anh làm là gì, những số liệu nào thua, những số liệu nào hơn. Còn ko nó chỉ là 1 technical report thôi. Nói chung muốn phân tích paper thì đám mod này nên đi học cao học đi rồi thầy dạy cho cách đọc paper khoa học.
@GLES Nghiên cứu thì ghê gớm lắm, tới sản phẩm thực tiễn lại quay về cậy nhờ google, baidu, clone model free từ các nguồn khác về
GLES
ĐẠI BÀNG
một tháng
@Doof Heinz nói vậy cũng hơi tội cho nó vì theo nghiên cứu khoa học thì đều có ý nghĩa phát triển, chỉ có điều nó khiến mấy con cừu "hype" thái quá, tung hô lên nó là nhất.

Mọi nghiên cứu đều có giá trị vì nghiên cứu khoa học là tài sản chung chứ ko của riêng ai, còn bọn cừu thì lại nghĩ tụi nó là nhất tui mới ghét, chứ tui cũng vẫn dev vài thứ bằng hardware của táo thối.
@GLES Từ bước nghiên cứu ra sản phẩm thương mại thực tế là cả 1 quá trình, kết hợp nhiều công trình nghiên cứu.
Mà ở cái động này thì chúng nó không cần hiểu tới vậy đâu. Cứ dính tới táo thối là tung hô thôi.
Chắc chắn 100% là Apple ko có AI Circle to Search cho iPhone
@centernc Vui quá Apple mà nghiên cứu thế này thì 10 năm nữa ifan sẽ có AI dùng
Z Fold
ĐẠI BÀNG
một tháng
Ghê nhỉ. Lại tự sướng về AI à. Nếu đúng vậy tại sao thím Cook lại đi quỳ gối trước Google mong muốn được Android ĐỒNG HÓA, AI hóa iOS...
Cười vô mặt
@Z Fold Bạn có não để trưng cho đẹp à
@Z Fold Não bã đậu.
@Kelvin Phước thì thằng táo cóp đang đu trend bên Andro chứ còn gì nữa 😃
@Z Fold Quỳ gối luôn hả bác, ghê vậy, Cook đúng là vì tiền mà bất chấp tất cả, có khi còn chịu đấu kiếm với cấp cao Google luôn ấy =))
@Z Fold Mày làm gì được cho đất nước này chưa. Hay sáng tạo được con AI hay thuật toán nào chưa. Sao mà hay mở mồm ra chê vậy
Apple nhờ nghiên cứu Siri tiếng Việt và bàn phím tiếng Việt mà vô tình phát hiện ra phương thức ReALM nhờ phong ba bão táp của ngữ pháp VN. Chuyến này ngon rồi, AI mà hiểu được tiếng nóng với ngữ pháp VN thì quá thông minh
@typhu1901 Hiểu được ngọng nữa là chuẩn luôn 😂
@lhdtt Bớt lóng, bớt nóng, à mà thôi…
Rãy chết chứ nghiên cứu cái mịa gì . Nhăm nhăm như mọi lần trước toàn chờ người khác nghiên cứu rồi đi ăn cắp , tái định nghĩa ... Loài người giờ khôn rồi , ko ăn cắp đc nữa đâu .
@Kelvin Phước k phản biện lại thì đi chỗ khác chơi
@minhthuvc bạn thật tội nghiệp.
@minhthuvc Chắc cook sờ vào con s24 thấy nó tự viết tin nhắn, chỉnh ảnh, xóa đối tượng phê quá nên về quyết tâm đưa lên iphone đây mà
@iCừu 01 2 thằng ảo tưởng sức mạnh ghê quá ta ơi. Ko biết s24 giờ có ai xài ko ta ơi
ôi vãi. đói Ai đến mức chỉ là mấy hình chụp nghiên cứu thôj mà bài viết phân tích dài ngoằng như vậy ah? iphan được trả nhiêu tiền mà siêng ghê.
@ragefighter Mày đã nghe câu: đừng dạy người khác cách tiêu tiền bao giờ chưa.
@nguyendathp phân tích lan man, bịa là nhiều thôi bro
@Dragao_ct92 Không có đâu, dân AI lắm cao thủ lắm. Họ làm ra sản phẩm kiếm đc tiền rồi ấy chứ không phải bánh vẽ đâu. Nói đơn giản như làm 1 con bot tích hợp vào trang web thương mại điện tử, hay bot chat cskh cho doanh nghiệp ... hay đến việc bán khoá học cũng chỉ là 1 vd thôi.
@nguyendathp Mảng doanh nghiệp thì ok, chứ AI trên điện thoại Galaxy S24 của Samsung thì tóm tắt trang web ngu bỏ xừ ông ạ. Không hay như quảng cáo đâu ông ơik
“Tái định nghĩa” một câu của Apple dùng để đá vào hạ bộ đám fan Android nhỉ 😏
@Cơm nguội mình thì nghĩ nó là một câu để android's fans hay nói để khịa thôi. Nhưng người lớn thì không làm vậy
Trước tiên bỏ cái trung tâm ứng dụng đi rồi làm gì thì làm
Dùng Ai để tóm tắt lại. dài dòng quá. toám chém gió
Screenshot-20240414-095813-Samsung Internet.png
@ragefighter Tóm tắt có sát nội dung không bro, tại tui không có đọc
@lhdtt sát luôn. do nó viết bịa nhiều quá nên dài lang mang thôi. chứ đã ra xài đâu mà nói phãi ko? nhớ bài màn hình tỉ lệ vàng thời ip4 cũng dài lê thê vậy giờ apple vả mặt iphan bôm bốp
@ragefighter Chuẩn tôi cũng vừa đọc tóm tắt rồi xuống mục comment.
ủa mình thấy ChatGPT đang làm rất tốt việc này mà? nó hiểu mọi thứ mình ghi vào dựa theo context mình đã đặt ra từ đầu. Apple bị cái tật là không muốn đu theo trend người khác mà cứ luôn muốn làm người dẫn đầu, trong khi thực tế thì đang bị bỏ lại sau lưng mảng AI này.
@Methylamine Hay còn gọi là tái định nghĩa 😆
@Methylamine Chuẩn nè. Thực ra mô hình ngôn ngữ nào cũng thế. Mà bài viết như kiểu apple ghê chưa… ghê chưa… hâhha
@Methylamine Cái đó fan táo gọi là tái định nghĩa đó bồ
@Methylamine Apple bị Microsoft vs Google bỏ xa gần 2/3 quãng đường r 😆 Dữ liệu người dùng cũng chả lớn bằng 2 ông kia 😃) Giờ làm con còn khó chứ ở đấy đòi làm bố 😃)
mạnh dán đoán
AI khử noise
AI xoá phông
phải ko Cook ơi
@tientran517 nó được áp dụng lâu rồi, trên cả máy android và ios ông ơi. Sao ông dốt thế
@khanhduy.39n Thế thì anh này ko phải ifan rồi
triết lý của Coock là tái định nghĩa mà anh gì ơi
@tientran517 Rất hóng quả AI khủ bệnh vàng da.
Ngon thì ra mẹ đi. Chứ nói mõm ai chả nói được. Hồi Chatgpt ra nó có nói nhiều đâu tự người dùng tìm đến nó đấy chứ.
Đọc đoạn đầu hình như tác giả chưa dành về AI cái vụ hất hàm haha
Phân tích lằm lốn rồi chốt lại AI táo đù k chọn cách dùng Text để tạo ra các prompt thì là dùng cách nào?
Vì con AI Siri ngu đần mà phải khai tử táo car, đưa ip tụt hậu 10 năm so với Andro mà giờ còn đua đòi AI nữa
Cười vô mặt
@Dragao_ct92 Sâm ế khóc thét khi Táo có AI 😆
Sai chinh ta
từ từ cho cháu nó còn lớn chứ, chê nó hoài 😁
Lại Apple tái định nghĩa AI à?
Apple nói rằng model nhỏ nhất của họ cho khả năng hiểu được các Reference tương đương với GPT-4 (tin đồn nói rằng có 1,76 ngàn tỷ tham số)
Không hiểu về AI lắm, bác nào chuyên GPT xin cái nhận xét với :v
@ThànhYx Đừng tin Apple nói. Các thử nghiệm của Apple chỉ nằm trong số mẫu rất nhỏ.
Giống như thử nghiệm thuyền 1.76 ngàn tấn trên hồ rồi kết luận cho tốc độ chạy tương đương với tàu viễn dương 3 ngàn tỉ tấn.
@Doof Heinz Tui tin Apple đâu, chỉ nhờ bác nào chuyên AI giải đáp thắc mắc thôi. Chứ đồ apple tui chán ngấy từ lâu rồi. Hứa hẹn nhiều mà toàn phải chờ chờ với chờ xong cũng chả được như mong đợi. 😆

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019