Cuộc đua "bán AI kiếm tiền" giữa Google và Microsoft đang diễn ra cực kỳ nóng

P.W
16/3/2023 7:54Phản hồi: 29
Cuộc đua "bán AI kiếm tiền" giữa Google và Microsoft đang diễn ra cực kỳ nóng
Mô hình ngôn ngữ GPT-4 đã chính thức ra mắt, cùng với đó là những hứa hẹn thay đổi cách con người tương tác với máy móc, cũng như cách máy tính phục vụ con người. Cùng lúc, cuộc đua nghiên cứu phát triển sản phẩm AI giữa hai ông lớn MicrosoftGoogle cũng đang diễn ra càng lúc càng nóng, với những công bố và thông tin chính thức được đưa ra. Hầu hết chúng, trong mắt người dùng các dịch vụ trực tuyến đều chẳng mấy cuốn hút, vì trong đó đều là những thuật ngữ chuyên ngành rắc rối và khó hiểu đối với phần đông.

Nhưng không có những thuật ngữ và thông tin như vậy, cũng sẽ rất khó để mô tả được cách những thuật toán machine learning vận hành và phục vụ hàng tỷ người.

Google tung ra API mô hình ngôn ngữ PaLM


PaLM về cơ bản giống hệt như LLaMa mà Meta vừa công bố cách đây ít lâu, hay chính bản thân GPT của OpenAI. Google vừa tuyên bố cho ra mắt API mô hình ngôn ngữ này kết hợp với những công cụ phục vụ doanh nghiệp.

Với PaLM, các doanh nghiệp sẽ có thể tuỳ chỉnh mô hình để làm rất nhiều tác vụ. Từ biến mô hình thành chatbot phục vụ hỗ trợ khách hàng, biến nó thành công cụ tổng hợp thông tin trong môi trường doanh nghiệp, ví dụ tổng hợp ý chính trong những cuộc họp trực tuyến, hay thậm chí là viết cả code, Google nói PaLM làm được hết.

Đọc thêm: https://tinhte.vn/thread/google-se-mang-tinh-nang-tao-hinh-anh-bang-van-ban-len-gboard-nho-model-ai-imagen.3639179/

Và để hỗ trợ các doanh nghiệp tuỳ biến PaLM, Google cũng kẹp API mô hình ngôn ngữ này với bộ công cụ tuỳ chỉnh MakerSuite. Nhờ công cụ này, các kỹ thuật viên của các doanh nghiệp có thể tuỳ chỉnh API PaLM ngay trên nền trình duyệt theo đúng nhu cầu, rất tiện lợi. Còn quá trình huấn luyện mô hình ngôn ngữ để phục vụ nhu cầu của từng khách hàng đương nhiên vẫn được xử lý thông qua nền tảng dịch vụ đám mây Google Cloud.

Bên cạnh PaLM API, Google cũng đang mở rộng hỗ trợ nền tảng Vertex AI, công cụ giúp các doanh nghiệp huấn luyện và ứng dụng mô hình ngôn ngữ. Vertex sẽ được tiếp cận nhiều mô hình do chính các kỹ sư của Google Research hoặc công ty con DeepMind của Google, rồi sau này sẽ tiếp cận cả những mô hình ngôn ngữ mã nguồn mở hoặc của bên thứ 3.

Đọc thêm: https://tinhte.vn/thread/microsoft-co-prometheus-google-co-bard-gio-meta-cung-da-co-chatbot-llama.3638228/

Microsoft có Prometheus, Google có Bard, giờ Meta cũng đã có chatbot LLaMa

CEO Meta, Mark Zuckerberg vừa giới thiệu mô hình ngôn ngữ LLaMa, viết tắt của Large Language Model Meta AI: “Hôm nay chúng tôi cho ra mắt mô hình ngôn ngữ AI quy mô lớn mang tên LLaMa để giúp các nhà nghiên cứu cải thiện công việc của họ.
tinhte.vn


Những công bố mới của Google là thứ phần đông người dùng không quan tâm. Nhưng vấn đề nằm ở chỗ, đem API tới cho các doanh nghiệp, thì việc ứng dụng mô hình ngôn ngữ nói riêng cũng như AI nói chung sẽ trở nên phổ biến, giúp công nghệ này tiếp cận nhiều người dùng hơn trong tương lai. Đó cũng chính là những gì Meta, OpenAI và Microsoft cũng đang triển khai, bên cạnh việc tạo ra những giải pháp ứng dụng mô hình ngôn ngữ phục vụ người dùng cá nhân, mà ChatGPT chính là một ví dụ cụ thể.

Microsoft chơi lớn, đầu tư GPU cực mạnh Nvidia H100 xử lý AI


Trên blog chính thức của Microsoft, tập đoàn này vừa hé lộ những chi tiết kỹ thuật của một hệ thống máy tính huấn luyện thuật toán AI, để công bố việc nâng cấp toàn diện dàn máy chủ vận hành xử lý ChatGPT trên máy chủ đám mây Azure.

Trước đó, cụm máy chủ Azure xử lý AI của Microsoft được trang bị cụm máy chủ thế hệ cũ, ND A100 v4, bên trong là những GPU Nvidia A100 Tensor Core kiến trúc Ampere, được thiết kế riêng để tăng tốc xử lý những thuật toán machine learning. Hàng nghìn GPU như vậy được Microsoft trang bị cho máy chủ, từ đó tạo ra cơ sở hạ tầng phục vụ cho Microsoft, cho OpenAI, hay bất kỳ đối tác doanh nghiệp nào muốn ứng dụng sức mạnh xử lý của các mô hình ngôn ngữ nói riêng và các thuật toán AI nói chung.

Tinhte_AI1.jpeg

Quảng cáo



Scott Guthrie, phó chủ tịch phụ trách AI và điện toán đám mây của Microsoft cho biết họ đã đầu tư vìa trăm triệu USD để nâng cấp hệ thống. Giờ máy chủ Azure phục vụ xử lý AI được vận hành bởi cả GPU A100 đời trước, lẫn GPU H100 Tensor Core, kiến trúc Hopper mới nhất của Nvidia, được giới thiệu vào năm ngoái.

Những đối tác của Microsoft thuê máy chủ Azure xử lý AI sẽ được tiếp cận với hệ thống scalable cực kỳ khủng, với sức mạnh từ 8 đến hàng nghìn GPU tuỳ vào nhu cầu cũng như túi tiền. Và bên trong một cụm máy chủ chạy ảo hoá NC H100 v5 VM là những thông số kỹ thuật như thế này:

  • 8 GPU Nvidia H100 Tensor Core, kết nối với nhau thông qua cầu nối NVSwitch và NVLink 4.0
  • Cầu nối dữ liệu Nvidia Quantum-2 CX7 InfiniBand băng thông 400 Gb/s, mỗi máy ảo có tốc độ xử lý dữ liệu 3.2 Tb/s.
  • Cầu nối NVSwitch và NVLink 4.0 tạo ra băng thông dữ liệu 3.6 TB/s trong toàn bộ cụm 8 GPU H100.
  • 4 CPU Intel Xeon Scalable.
  • Kết nối PCIe Gen 5, băng thông của mỗi GPU đạt ngưỡng 64GB/s.
  • RAM DDR5 4800MHz 16 Channel.

Đọc sơ qua cấu hình mỗi cụm máy chủ cũng có thể thấy rõ một điều, khi những mô hình ngôn ngữ và thuật toán machine learning càng phát triển, có càng nhiều tham số để tạo ra những nội dung chân thực và đạt yêu cầu nhất, thì sức mạnh điện toán cũng phải tăng theo cấp số nhân. Hệ quả là cả chi phí mua sắm thiết bị lẫn chi phí vận hành đều sẽ tăng trong thời gian tới. Và thương mại hoá chính những hệ thống máy chủ này cho các đối tác doanh nghiệp là hướng đi hợp lý nhất.

Đọc thêm: https://tinhte.vn/thread/da-bat-dau-cuoc-dua-pha-gia-dich-vu-chatbot-ai-va-mo-hinh-ngon-ngu.3643528/
29 bình luận
Chia sẻ

Xu hướng

Chờ Apple tung Siri++ biến loài người thành trong phim The Matrix luôn
Quan trọng là thuật toán nữa, ko phải cứ nâng cấp cấu hình là ăn được đâu
Như Samsung phải đầu tư cảm biến Camera 200MP trên S23 Ultra, trong khi đó Apple chỉ cần AI là đủ
@centernc con gà quả trứng, thuật toán khiếp mà xử lý chậm thì sao bán được
@centernc Nó phải đi cùng nhau. Thuật toán tối ưu kết hợp phần cứng mạnh mẽ.
@centernc Ngáo ah. Nếu dùng AI thì phải như thằng pixel trước dùng cảm biến imx363 bé tí tẹo từ thời napoleon nhưng vẫn lên bức ảnh siêu đẹp. Có biết kích thước cảm biến 48mpx của nó to chà bá hơn cả của con s23u ko ? Nếu tự tin dùng AI thì dùng cảm biến nhỏ thôi.
Cái "4 CPU Intel Xeon Scalable" là không đúng. Chính xác là MS dùng CPU Intel Xeon scalable thế hệ thứ 4 cho các máy chủ Azure này chứ không phải dùng 4 CPU intel xeon.
@nghaimin may mà đám Intel này tối ưu cho AI ngon đấy, chứ vừa đắt vừa tốn điện thì MS đã nghe Danh mua AMD rồi
@HueHue34 Hãng lớn như MS tự biết mình cần gì, nên chọn gì, đâu cần bên ngoài phán này nọ. Chưa kể MS là 1 trong những hãng tiếp cận sớm nhất các sản phẩm phần cứng, nên thừa hiểu thế nào là tốt nhất.
@nghaimin giờ này là năm 2023 rồi mà thằng intel vẫn đem cái công nghệ cũ rích lạc hậu 10nm ra để lùa gà,bộ intel nghĩ người dùng bị ngu hết hay sao trời,hic
@toilachi9 Với vai trò người dùng cuối thì chỉ quan tâm hiệu năng, lắp vào chạy đúng năng lực, k hư giữa chừng. Còn nó nói 100nm thì có liên quan gì hả mai fen 🤣. Công nghệ gì thì chỉ khè người đọc báo thôi, còn k khè dc các tổ chức cần kết quả là tiền tiền tiền đâu nhé🤣🤣🤣
Toàn sao chép Siri của Apple chứ sáng tạo gì đâu
@sốt-xuất-huyết-2023 Khịa cũng vui
vunt
TÍCH CỰC
một năm
Google đã kiếm đc xu mịa nào từ AI đâu...
Danglnh
ĐẠI BÀNG
một năm
@vunt Chán thanh niên cứ nghĩ mình biết tuốt 😃. Hoá ra phải bán tài khoản chatGPT 20 đồng/tháng mới là kiếm tiền từ AI =))))))
@vunt Nó làm nó có nói đâu, bạn truy cập gg là nó đã vận hành con AI rồi
vunt
TÍCH CỰC
một năm
@Danglnh 😃) ít nhất đó là doanh số được ghi nhận là AI. Còn thằng khác có áp dụng AI vào tìm kiếm hay thuật toán xử lý ảnh trên điện thoại đi chăng nữa những nó là doanh số mảng quảng cáo, và mảng bán điện thoại.

Đã ngu còn tỏ ra nguy hiểm!
vunt
TÍCH CỰC
một năm
@Bão Sài Gòn Đang nói câu chuyện kiếm tiền mà. chứ làm AI thì ngay cả công ty tôi cũng làm ở mức độ nhất định.
M$ biết AI chính là xu hướng tương lai nên đầu tư khủng thật
@cuong_uot ai chả biết mà cần gì phải đến M$
vunt
TÍCH CỰC
một năm
@cuong_uot Ôm big Data thì thằng nào chả nghĩ đến AI.
2 em là muỗi so với anh nhá
image.jpg
@Guest345 A bán niềm tin chú mua thì mua ko mua thì biến, chú nói láo ny chú mới đổ, Quang Nguyên Tử muốn tất cả đều đổ phải láo lớn hơn
@Guest345 anh Quảng Nổ chắc sẽ là Morpheus đây. Trí tuệ của anh vượt xa hiện tại rồi.
@Guest345 Anh có con chíp 765 vượt thời gian
Khủng thiệt. Năm nay nóng hừng hực 😁
Sự ra đi của một trong hai con trâu sẽ mang lại cuộc sống tốt đẹp hơn cho người tiêu dùng.
Khá giống với thế kỉ trước khi con người dần tiếp cận sức mạnh của máy vi tính, các bộ vi xử lý của máy tính khi đó rất to và cồng kềnh. Có khi 50 năm nữa, những thiết bị khổng lồ như hiện tại đó chỉ nhỏ như lòng bàn tay.
@hongson890 Thì cái máy tính cá nhân ngày xưa nó bự như cái nhà vậy đó mà 🤣

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019