Apple giới thiệu OpenELM: Mô hình AI vận hành trên chip iPhone, có 8 phiên bản khác nhau

P.W
26/4/2024 5:47Phản hồi: 64
Apple giới thiệu OpenELM: Mô hình AI vận hành trên chip iPhone, có 8 phiên bản khác nhau
Apple có thể đi sau OpenAI hay Google trong cuộc chạy đua AI, nhưng tốc độ họ nghiên cứu và công bố những sản phẩm mới, dự kiến sử dụng làm nền tảng cho những sản phẩm AI ứng dụng trong thiết bị công nghệ họ bán ra thị trường thì thực sự chóng mặt.

Trước khi OpenELM được công bố, Apple đã lần lượt hé lộ rất nhiều những mô hình AI và giải pháp xử lý dữ liệu hoặc tạo sinh dữ liệu bằng AI. Tốc độ họ công bố nghiên cứu khoa học và mô hình mã nguồn mở đúng là khiến chúng ta không thể bắt kịp:

Apple âm thầm ra mắt mô hình AI chỉnh ảnh, đặt tên là MGIE, mạnh như Photoshop

Hôm qua mình ngồi đọc Reddit, trên mấy hội nhóm về chủ đề tạo hình bằng AI, có người phát hiện ra thông tin là 5 ngày trước trên GitHub, các nhà phát triển của Apple đã âm thầm cho ra mắt một mô hình chỉnh sửa hình ảnh dựa trên lệnh văn bản và mô…
tinhte.vn

Apple sắp cải tiến Siri bằng AI "ReALM": giúp Siri thông minh và phản hồi nhanh hơn

Các nhà nghiên cứu trí thông minh nhân tạo (AI) của Apple vừa hé lộ một công nghệ mới hứa hẹn sẽ giúp Siri thông minh và nhanh nhạy hơn. Công nghệ này có tên gọi là ReALM, viết tắt của cụm "Reference Resolution As Language Modelin" nôm na là xác…
tinhte.vn

Apple MM1: Mô hình AI nhận diện hình ảnh và văn bản, khá giống Circle to Search nhưng thông minh hơn

Trước khi công bố MM1, Apple cũng đã giới thiệu một mô hình AI được các kỹ sư của tập đoàn hợp tác với các nhà nghiên cứu đại học California phát triển, gọi là MGIE. Nếu như MGIE (MLLM-Guided Image Editing) là giải pháp kết hợp giữa mô hình ngôn…
tinhte.vn


Mới nhất, như tiêu đề, là OpenELM, mô hình ngôn ngữ được dùng làm nền tảng vận hành những tính năng chatbot hay trợ lý ảo, chạy local, tức là xử lý ngay trên những con chip như A17 Pro hay M3 của iPhoneMacBook, thông qua cả CPU, GPU lẫn Neural Engine để tạo sinh nội dung phục vụ người dùng.


Nếu như GPT-4 hay Gemini là mô hình ngôn ngữ lớn đa chế độ (multimodal large language model), thì OpenELM là “mô hình ngôn ngữ nhỏ”. Vì kích thước, OpenELM đủ nhỏ gọn để chạy ngay trên phần cứng chiếc điện thoại của anh em. Tuy nhiên ở thời điểm hiện tại, OpenELM mới chỉ là mô hình phục vụ nghiên cứu công nghệ, chứ chưa được áp dụng cho bất kỳ sản phẩm thương mại hay dịch vụ nào vận hành trong những chiếc máy của Apple.

Điều đáng nói là hôm thứ 3, 23/4 vừa rồi, Microsoft cũng công bố một giải pháp tương tự, những mô hình Phi-3, với mục tiêu đủ sức thực hiện bước hiểu ngôn ngữ con người, đủ sức vận hành tạo sinh dữ liệu nhưng trong những mô hình với tham số đủ nhỏ để phần cứng thiết bị tiêu dùng có thể vận hành. Nếu như phiên bản Phi-3-mini của Microsoft có 3.8 tỷ tham số, thì OpenELM của Apple chỉ dao động từ 270 triệu đến 3 tỷ tham số, tùy thuộc vào 1 trong 8 phiên bản OpenELM được ứng dụng vận hành.

Context window, hay khung dữ liệu đầu vào để mô hình AI nhận diện ngữ cảnh của lệnh người dùng nhập và yêu cầu AI trả lời là 2048 token, tức là AI hiểu được tối đa ngần ấy từ hoặc chuỗi từ. Nó được các nhà khoa học tại Apple huấn luyện dựa trên gói dữ liệu RefinedWeb công khai trên mạng internet, giống như thư viện dữ liệu PILE nhưng được tuyển chọn và loại bỏ những dữ liệu lặp lại, và hai gói dữ liệu thuộc thư viện RedPajama và Dolma v1.6. Theo Apple, OpenELM được huấn luyện dựa trên 1.8 nghìn tỷ token dữ liệu dạng văn bản.

Chiến lược áp dụng để vận hành OpenELM, theo Apple, dựa trên từng lớp tính năng vận hành. Nhờ việc chia quá trình vận hành của mô hình AI thành nhiều lớp, các tham số của mô hình AI có thể được chia một cách hiệu quả hơn nhiều. Nói ngắn gọn, nhờ cơ chế này, tài nguyên phần cứng xử lý AI sẽ được tiết kiệm tối đa, cùng lúc cải thiện hiệu năng của chính bản thân mô hình AI, dù nó được huấn luyện dựa trên số lượng token dữ liệu thấp.

Vì có chữ “Open” trong cái tên, bản chất mô hình AI này là một mô hình mã nguồn mở được Apple phát triển. Bên cạnh weight AI vừa được công bố trên HuggingFace, Apple còn công khai cả thư viện dữ liệu CoreNet dùng để huấn luyện OpenELM, qua đó “củng cố và làm giàu nội dung cho cộng đồng nghiên cứu AI.” Nhưng cùng lúc, vì đây là những dữ liệu công khai tổng hợp từ mạng internet, nên các nhà nghiên cứu thuộc Apple cũng cảnh báo “có thể có khả năng những mô hình này tạo ra những thông tin không chính xác, có hại, thiên lệch hoặc không hợp lý để trả lời người dùng.”

Theo ArsTechnica
64 bình luận
Chia sẻ

Xu hướng

Công bố nhanh là 1 chuyện, có thực sự hữu ích và đc đón nhận hay ko lại là chuyện khác. Giống như đăng ký quyền sáng chế nhưng có thương mại hoá vào cuộc sống hàng ngày ko lại là chuyện khác. Trong khi các hãng khác đã launch lâu và ng ta sử dụng hàng ngày, Apple quanh quẩn với con Siri dở ông dở thằng hơn chục năm rồi mà mod mở đầu bài viết kiểu như Apple out trình các hãng khác nghe tức cười ghê.
@Tiến Minh Đỗ Lạc đề quá má, thiếu kiến thức nữa. Mấy con AI giờ đứa nào tuyên bố 100% tối ưu cho hàng Táo là t cùi liền, trong khi android đã có nano Gemini chạy native thì Táo còn trên giấy. Thì bọn mi mãi mõm thôi, t lười nghe lắm 😆
@noctunalguy ủa t nói rõ lý do tại sao sau này AI nó sẽ tối ưu, chứ t đâu nói là bây giờ. Mà nếu nói là bây giờ thì nhìn con Macbook Air m3 vừa ra mắt đi đã 😆) Dành cho chạy AI đấy. Cứ phủi bỏ sự thật là Apple vẫn đang được các hãng ưu ái đu bám đi 😃) Nó vẫn hiển hiện ra đó thôi. Thiếu kiến thức mà mõm to 😃)
@Tiến Minh Đỗ Again, toàn trên giấy tờ. Có con AI nào native trên mac t cùi tiếp. Done! 😆
@noctunalguy M đang nói các công ty công nghệ, hay AI k hổ trợ tối ưu cho Apple. Chứ ban đầu m k nói nó native hay không trên máy, khi t phan rõ ra luận điểm thì lại tự sửa lời mình 😆 Đúng là thể loại rác rưởi tinhter 😃))
Nên vậy, với giá trị 2600 tỷ mua luôn OpenAI chắc vài tỷ là xong.
@iPhan Chính Hãng chạy on-device làm gì vậy? Có đủ dữ liệu lẫn sức mạnh để xử lý ko, mấy cái bé tý thì khỏi cần. Mấy cái model lớn thì cần sức mạnh tính toán và lượng dữ liệu lớn khẳng định local chả con mẹ nào xử lý đc.
@XuyenViet2019 Đâu phải tự nhiên dù là Open mà MS nó được dùng trước.
Muốn mua được thì phải qua ý kiến một số thành phần đã
@XuyenViet2019 Ko hiểu gì
annx.37
ĐẠI BÀNG
10 ngày
@Nguyễn_Huy_Hoàng Lên xem mấy phim viễn tưởng có AI riêng biệt trên thiết bị là biết. Nó có thể hoạt động ko cần mạng thôi, những lúc như lạc vào chỗ nào ko có mạng, nó có thể hỗ trợ. Ví dụ như cho tải dữ liệu sinh tồn, rồi bảo AI kiếm cách xử lý khi đó. Trong khi og phải đọc cả cái tệp to đùng, thì chỉ việc gọi AI lấy dữ liệu và giúp chọn phương án sinh tồn cách tốt nhất khi đó chẳng hạn. Đấy là mới 1 ví dụ nhỏ thôi. Rồi còn 1 đống ảnh trong album kêu nó kiếm giúp,… tuỳ có thể chậm chút nhưng giúp được khá đống việc chứ đùa 🙃
Siri còn k có tiếng Việt 😂😂😂
Táo sứt là phải dẫn đầu. Không dẫn đầu được về công nghệ AI thì dẫn đầu về số lượng kế hoạch dùng AI (bao giờ có thì chịu). Thế cũng là dẫn đầu nhá
Đừng có mẹ thiên nhiên da đen là được
Cười vô mặt
t vẫn chờ ngày siri có tiếng việt 😃
Gét Apple 1 cái. Dù phần cứng củ dư sức đáp ứng các ứng dụng mới, nhưng họ chỉ cho những phần mềm mới chỉ xài cho phần cứng mới
@zodanh2102 chả như ông nào máy cũ còn nhiều tính năng hơn máy mới cơ mà
@zodanh2102 Công nhận cay thiệt, đã vậy còn cố tình bóp hiệu năng máy cũ nữa
Bình Ông
ĐẠI BÀNG
10 ngày
Apple cũng vô tình tiết lộ hiệu năng chạy tác vụ AI của M2 Max yếu hơn gấp 8-12 lần i9 13900K =)))
SCR-20240426-mqyt.jpg
SCR-20240426-mreq.jpg
GLES
ĐẠI BÀNG
10 ngày
@Bình Ông mình thì biết cách đọc paper khoa học nên tìm được dễ lắm =))

mình thì có đọc cả phương pháp lẫn so sánh tham số do đang làm trong ngành =)))
@Bình Ông vô lý nhỉ
haithanh079
ĐẠI BÀNG
9 ngày
@Bình Ông =)) phải là M2 Max yếu hơn RTX 4090 chứ con 13900k có tác dụng gì ở đây đâu.
haico1992
ĐẠI BÀNG
8 ngày
@Bình Ông Con nếu so với 4090 chắc sẽ yếu hơn mấy nghìn lần nên thôi k công bố nữa =)))
BrioPc
TÍCH CỰC
10 ngày
AI của apple tên gì ta? iAi chăng?
PaLM, Copilot, ChatGPT, Gemin......chuẩn bị đi ăn cám 😁
GLES
ĐẠI BÀNG
10 ngày
@sốt-siêu-vi-sốt-phát-ban-2024 1 cú tát thẳng khác vào mặt mấy đứa fan táo đó là mô hình này xài tokenizer của meta FB llama =))))))))

"In our experiments, we used LLamav1/v2 tokenizer. Please download the tokenizer from the official repository."
@GLES Chuyên nghành quá Fan cuồng không hiểu đâu bác ơi. Nói những cái như Mod nói ấy "Tốc độ họ công bố nghiên cứu khoa học và mô hình mã nguồn mở đúng là khiến chúng ta không thể bắt kịp" cắt bỏ hết cái chính đi, đưa những cái phông bạt lên thì họ mới hiểu
@GLES Thấy bạn này có vẻ anti táo nhỉ.

Sản phẩm của FB chuyên về ngôn ngữ (FB, Insta, Threads) và là main stream chính trong việc kinh doanh của họ thì đương nhiên họ đầu tư nhiều và mạnh về các tools/libs/frameworks/models liên quan đến ngôn ngữ là bình thường mà. Và nếu họ đã open source cho xài thì việc gì phải "reinvent the wheel"? Trong một paper research nếu cái gì cũng tự làm hết từ đầu đến cuối thì đến bao giờ mới xong?

Thực tế thì hãng nào cũng xài đồ của nhau thôi. Google open source MapReduce và GFS là tiền đề để làm ra Hadoop/HDFS mà bất cứ hãng công nghệ nào cũng xài trong kỷ nguyên Big Data. Linkedin open source Kafka thì cũng được các hãng công nghệ sử dụng rộng rãi. Airbnb open source Airflow cũng tương tự như vậy. UC Berkeley open source Spark thì lại càng được sử dụng cực kỳ phổ biến giữa các hãng công nghệ. Facebook open source Hive thì thử hỏi có hãng công nghệ nào ko xài?

Vậy giờ ko lẽ bạn bắt tất cả các hãng FB, Linkedin, Google, Amazon, Microsoft, Apple phải tự phát minh lại từ đầu tất cả những thứ như Spark, Hive, Kafka, Hadoop, Airflow, ... thì mới được sử dụng àh?

Cái mindset lạ ghê.
@hoanganhkhoil Thực tế thì hãng nào xài đồ của nhau thì ngta coi như là hợp tác. Thì không thể nói là các con AI của hãng khác phải ăn cám được. Nên bác kia phản ứng lại câu đấy theo cách vậy thôi.
GLES
ĐẠI BÀNG
10 ngày
@hoanganhkhoil tui anti nó vì nó khiến cho mọi thứ trở nên độc quyền hơn và tốn nhiều chi phí hơn. Tui vẫn dev iOS nhé bác nhưng cái gì cũng phải nói rõ vì độc quyền khiến mọi thứ trở nên có lợi cho nhà sản xuất hơn user.
Tui công nhận bác ghi đúng tất cả từ MapReduce, GFS, Hadoop/HDFS, Kafka, Spark, Airflow, Hive, ....

Nhưng bác nên hiểu 1 điều ở cái xó nhà lá TT này, bọn cuồng táo nó ko ưa và anti Meta FB, tui chỉ muốn nói bọn nó nên nhiều rộng ra vì cả thế giới đều dựa vào nhau mà sống.
Các con các cháu đâu,
Nhìn ông làm đây mà học tập nhé,
Định nghĩa lại AI
song song
ĐẠI BÀNG
10 ngày
làm Siri hiểu tiếng Việt trước đi đã
@song song Siri said: 3 miền nói chuyện với nhau k hả hả k lặp lại rồi tao tính
Cười vô mặt
bội thực với AI
ok gu gồ 😁
Mai ca ơi :D
Chưa có sản phẩm thật mà bài viết đọc cứ tưởng đang nói về trùm cuối ấy.
datmuisub
ĐẠI BÀNG
10 ngày
Apple tái định nghĩa "AI" chăng? kkk.
holaboy
ĐẠI BÀNG
10 ngày
bợ đít Apple à??? "Apple có thể đi sau OpenAI hay Google trong cuộc chạy đua AI, nhưng tốc độ họ nghiên cứu và công bố những sản phẩm mới, dự kiến sử dụng làm nền tảng cho những sản phẩm AI ứng dụng trong thiết bị công nghệ họ bán ra thị trường thì thực sự chóng mặt."
Chóng mặt chỗ nào?
@holaboy Bởi, đọc mà chán bác nhỉ. Trong khi GG và MS vừa công bố lãi to nhờ AI thì anh A nhà tôi chém gió trên giấy.
holaboy
ĐẠI BÀNG
10 ngày
@chetdichoroi thật sự, có bợ thì cũng vừa vừa thôi, dùng ngôn từ như vả mặt người khác. Cả thế giới này đều biết nhà A chết chìm trong cơn bão AI mà làm như đang trên đỉnh ha gì!
EvilArtist
ĐẠI BÀNG
9 ngày
@holaboy Google công bố nhiều model thì bảo chậm chân do đấu đá nội bộ. Còn Apple công bố nhiều thì lại khen tốc độ chóng mặt.
Lin Ga
ĐẠI BÀNG
10 ngày
Appl giống đang ăn mày dĩ vãng, giờ như là 1 công ty tài chính hơn là công nghệ.
Thôi tập trung vào trải nghiệm giả lập đi cho nó đúng quy trình 😆) Delta vẫn đang #1 trên bảng xếp hạng ứng dụng giải trí của app store kìa 😃)))
Đúng kiểu con dân như mưa được mùa sau bao năm hạn hán 😃)))

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019