Tham dự Tech Lounge

Tham dự Tech Lounge


Google ra mắt chip trí tuệ nhân tạo TPU phiên bản 2: trái tim của mọi dịch vụ thông minh

ND Minh Đức
17/5/2017 17:19Phản hồi: 19
Google ra mắt chip trí tuệ nhân tạo TPU phiên bản 2: trái tim của mọi dịch vụ thông minh
Trong khuôn khổ sự kiện I/O 2017, Google đã chính thức giới thiệu thế hệ thứ 2 của Tensor Processor Unit - một hệ thống phần cứng và phần mềm sử dụng những công nghệ tiên tiến nhất của họ nhằm hỗ trợ cho các tác vụ trí thông minh nhân tạo (AI), machine learning, mạng nơ ron nhân tạo và hơn thế nữa. (Ảnh trên: Một bảng mạch gắn 4 con chip trí thông minh nhân tạo TPU thế hệ mới của Google).

Còn nhớ hồi năm ngoái, Google đã giới thiệu thế hệ đầu tiên của TPU được thiết kế đặc biệt cho các tác vụ machine learning, được dùng trong hệ thống trí thông minh nhân tạo AlphaGo với khả năng học hỏi, dự đoán và kỹ năng đưa ra các quyết định nhằm đánh thắng người chơi cờ vây. Đồng thời Google cũng sử dụng nguồn lực tính toán của TPU để hỗ trợ độ thông minh của bộ máy tìm kiếm. Gần đây nhất, họ sử dụng công nghệ này trong các mô hình machine learning nhằm cải thiện độ thông minh của Google Translate, Google Photos và một số phần mềm khác cần có sự hỗ trợ của AI.

Về cơ bản, các tác vụ này có thể được tiến hành bởi các con GPU hiện có trên thị trường, điển hình như Nvidia đã cung cấp giải pháp tương tự cho Facebook trong các dự án huấn luyện máy chủ bằng trí thông minh nhân tạo Big Basin. Tuy nhiên, Google đã dành nhiều năm qua để tự phát triển phần cứng riêng, đồng tự tối ưu hóa các phần mềm riêng cho họ luôn.

Phiên bản đầu tiên của TPU được thiết kế đặt biệt để hoạt động tốt nhất với TensorFlow - một trong những thư viện mã nguồn mở cho các hệ thống machine learning. Nhờ những công nghệ tiên tiến của Google và sự kết hợp giữa phần cứng phần mềm được tối ưu hóa, TensorFliow hiện đã trở thành một trong những nền tảng tiên phong để phát triển các phần mềm AI. Cách tối ưu hóa này kết hợp với các bộ phận Google Brain và DeepMind, làm nên sự thành công trong việc ứng dụng trí thông minh nhân tạo của hãng.

GoogleChip3.jpg

Bảng mạch TPU nhìn từ trên xuống

Giờ đây, Google cho ra mắt thế hệ thứ 2 của hệ thống TPU với khả năng hoạt động một cách đầy đủ và đã được triển khai trên toàn bộ Google Compute Engine - một nền tảng mà những công ty và các nhà nghiên cứu khác có thể tận dụng để phục vụ công việc của họ tương tự như AWS của Amazon và Azure của Microsoft. Tất nhiên, Google cũng sử dụng hệ thống này cho các dịch vụ của họ.

Song song với việc ra mắt phiên bản mới của TPU, Google cũng đã phát triển công nghệ ghép nhiều TPU lại với nhau nhằm hình thành nên hệ thống mà họ gọi là TPU Pods, biến một hệ thống kệ máy chủ thành một siêu máy tính với sức mạnh tính toán lên tới 11,5 petaflops. Hơn thế nữa, Fei-Fei Lee, trưởng nhóm nghiên cứu AI và machine learning của Google cho biết: “các TPU thế hệ thứ 2 còn có khả năng mang lại sức mạnh tính toán 180 teraflops và được phát triển để đặc biệt hỗ trợ cho các hệ thống tính toán vận hành machine learning.”

Jeff Dean, một thành viên kỳ cựu của nhóm Google Brain khẳng định công nghệ mới cho phép Google có thể vượt trội các đối thủ cả về tốc độ lẫn sự tự do trong việc thử nghiệm. Ông cho rằng: “Các mô hình dịch trên quy mô lớn và hoàn toàn mới của chúng tôi phải mất tới 1 ngày để huấn luyện trên 32 GPU thương mại mạnh mẽ nhất thế giới tính tới hiện tại. Trong khi đó chỉ cần 1/8 TPU Pod là đã có thể hoàn thành việc này trong một buổi trưa.”

GoogleChip2.jpg
Cụm 4 trung tâm dữ liệu TPU Pod, mỗi cái hợp thành từ 64 con chip

Bên cạnh tốc độ thì TPU thế hệ thứ 2 còn cho phép các máy chủ của Google có thể tiến hành các tác vụ suy luận đồng thời với training. Các TPU trước đây chỉ có thể đảm nhiệm việc suy luận, thí dụ như dựa vào Google Cloud để xử lý số liệu theo thời gian thực nhằm cho ra kết quả. Trong khi đó việc training lại là cách một thuật toán AI được phát triển và thu thập những nguồn lực khác.

Mặt khác, machine learning - một trong những mảng tiên tiến nhất của công nghệ trí thông minh nhân tạo - cũng sẽ được hưởng lợi từ các TPU mớ thông qua qua việc cung cấp cho một thuật toán hàng trăm hàng ngàn thí dụ nhằm học cách tiến hành các tác vụ theo một cách mà nó chưa bao giờ được lập trình trước đó, thí dụ như cho phép Google Translate khả năng dịch một câu tiếng Anh thành tiếng Việt gần như tức thời hoặc AlphaGo sẽ có khả năng chơi cờ vây vuợt quá khả năng của một kỳ thủ đầy kinh nghiệm.

Song song với điều đó, hệ thống chip mới còn hỗ trợ việc training cho các mạng lưới thần kinh nhân tạo với một lượng lớn data và biến nó thành một thuật toán hoạt động được với sức mạnh tính toán siêu lớn. Các hệ thống training này mặt khác còn có thể được dùng để cải thiện các phần mềm AI thông qua việc khai thác lượng lớn số lượng. Và kết quả là, phần cứng càng mạnh thì kết quả cho ra sẽ càng nhanh. Dean khẳng định: “Nếu chúng ta có thể đưa thời gian chạy mỗi thử nghiệm từ vài tuần xuống còn vài ngày hoặc vài giờ thì sẽ giúp mọi người có thể vận hành lập đi lặp lại các hệ thống machine learning một cách nhanh chóng, tiến hành nhiều thử nghiệm hơn.

Do hệ thống TPU mới hiện đã có khả năng tiến hành các phép suy luận lẫn training nên các nhà nghiên cứu có thể triển khai nhiều thử nghiệm AI một cách linh hoạt và nhanh chóng hơn bao giờ hết, cụ thể là sẽ cải thiện khả năng của nền tảng TensorFlow. Google mặt khác còn tiếp tục thực hiện cam kết trước giờ của họ là mở mã nguồn thông qua việc cung cấp tài nguyên từ TPU tới các nhà nghiên cứu nếu họ đồng ý công bố các phát hiện hoặc mở mã nguồn code của họ. Google gọi đây là chương trình TensorFlow Research Cloud và sẽ cho phép truy cập miễn phí vào đám 1000 TPU của họ.

Quảng cáo

19 bình luận
Chia sẻ

Xu hướng

vxx9x
TÍCH CỰC
7 năm
Tương lai của công nghệ. ở mình đây là hướng mới rất tiềm năng .
oread
ĐẠI BÀNG
7 năm
lại cạnh tranh với intel ah
heorung52
TÍCH CỰC
7 năm
Chip chắc mạnh dữ đây, thấy tản nhiệt khủng quá mà.
datledo
ĐẠI BÀNG
7 năm
Rồi dần dần sẽ có "Mother" như trong phim Ailien 😆
ken0106
TÍCH CỰC
7 năm
Thế giới đi nhanh quá rồi. Làm sao theo nổi đây? Huhu
lấy cái này đi đào bitcoin thì thôi rồi 😁

[​IMG]
@thedeath1883 Làm một biến thể wannaf**ck đi, bạn sẽ có bitcoin nhanh thôi 😃
@gauto988 uh, bóc lịch cũng nhanh lắm 😁
@thedeath1883 Tính nói y vầy =))))))))))))))))
gravedigger
ĐẠI BÀNG
7 năm
@thedeath1883 Nó thông minh thế thì lấy để đi "chôm"bitcoin" hiệu quả hơn
@thedeath1883 Ví dụ dùng một con Intel Xeon E5-2680 [2.7GHz, 2 chips/node, 8 cores/chip] ~ 0.086 Tflops để đào thì một tháng đào liên tục không nghỉ đc khoảng 0.00054163 BTC ~ 0.99 USD. Con kia là 11.5 Pflops. Vậy thì 11.5x10^15 : 0.086x10^12 = 133 721 lần. 1 tháng đào cái này đào được 132 383 USD (Hơn 3 tỷ VND). Có vẻ ngon đấy. Em chỉ cần 2 tỷ là được rồi các bác ạ!
CPU, GPU, rồi đến TPU 😁:D:D, xoắn não :p
Cái ảnh đại diện nhìn qua tưởng là 1 thành phố cơ
Mr_HongHot
TÍCH CỰC
7 năm
nhìn như 1 khu đô thị, đẹp thật
odimon
TÍCH CỰC
7 năm
Giờ chỉ cần ông khoa học điên nào đó phát minh thêm một đoạn code tự nhận thức cho em ấy thì xác định ngày kết loài người luôn ;)
limann
TÍCH CỰC
7 năm
Nhìn thoáng thoáng tưởng 01 thành phố, design board đẹp quá-gọn gàng 😁
Khó . Ý tưởng ko tồi nhưng để thành hiện thực chắc 30 năm nữa . Microsoft mất 25 năm mà cụ thể từ năm 1991 tới nay vẫn đang loay hoay .
Lentn9x
ĐẠI BÀNG
7 năm
Thoạt nhìn ảnh giới thiệu cứ như 1 thành phố thu nhỏ vậy @@
zZkakasiZz
ĐẠI BÀNG
7 năm
skynet là đây ư?

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019