1 bộ xử lý TPU của Google dành cho trí tuệ nhân tạo có thể xử lý 100 triệu tấm ảnh mỗi ngày
Duy Luân
4 năm trướcBình luận: 27Lượt xem: 13.436
1 bộ xử lý TPU của Google dành cho trí tuệ nhân tạo có thể xử lý 100 triệu tấm ảnh mỗi ngày
Tensor Processing Unit (TPU) là bộ xử lý đầu tiên được Google tối ưu cho việc xử lý trí tuệ nhân tạo nói chung và machine learning nói riêng. Nó ra mắt lần đầu tiên hồi đầu năm nay tại sự kiện Google I/O 2015. Kĩ sư phần cứng Norm Jouppi đến từ Gooogle cho biết thểm rằng kích cỡ của TPU bằng với một cái ổ cứng và được tùy biến để đạt hiệu năng cũng như hiệu quả cao khi sử dụng TensorFlow - một thư viện machine learning mã nguồn mở được Google cung cấp cho mọi người sử dụng. Đây là một trong những nỗ lực của Google nhằm thúc đẩy việc phát triển AI trên toàn thế giới.

Khác với CPU hay GPU, TPU chỉ được dùng cho những tác vụ liên quan đến machine learning mà thôi. Jouppi nhấn mạnh rằng Google tiếp tục sử dụng CPU và GPU cho những chiếc máy tính của mình, và TPU chỉ giống như một phần mở rộng để tăng thêm sức mạnh mà thôi. Do nó sử dụng ít bit để tính toán hơn nên mỗi giây TPU có thể xử lý nhiều việc hơn là CPU truyền thống trên cùng một số lượng bóng bán dẫn như nhau. Song song đó, TPU cũng cho ra hiệu năng cao hơn trên mỗi watt điện dùng để vận hành hệ thống.

Jouppi chia sẻ là một TPU có thể xử lý khoảng 100 triệu tấm hình được upload lên Google Photos mỗi ngày. Khi sử dụng nhiều TPU chạy cùng lúc, Google có thể xác định mọi con chữ và số xuất hiện trong những tấm hình Street View trong chỉ ít hơn 5 ngày mà thôi. Nếu dùng CPU bình thường thì việc này sẽ chậm hơn nhiều, vậy nên Google mới so sánh việc xử lý TPU cho machine learning giống như là việc xài một con CPU tốt hơn 3 thế hệ so với hiện nay.

Nói về ảnh hưởng của TPU tới người dùng bình thường, Google cho hay TPU đang giúp các dịch vụ của hãng chạy tốt và nhanh hơn khi xét về những tính năng cần machine learning. Hiện tại Google vẫn đang tiếp tục cải thiện con chip của mình để tăng hiệu năng lên cao hơn nữa.

Nguồn: TechRadar
cv.jpg
kinh khủng khiếp
Thật ko thể tin nổi
Vâng, đó là lý do chúng ta "được" sử dụng Google Photo miễn phí 😆
@pham.kelvin sử dụng với "phí" là toàn bộ thông tin của chúng ta 😃)
nhưng mà thôi, kệ =))
bao giờ khựa mua lại google thì mới k dùng
@vqt907 Khựa nó đợi bác nộp hết thông tin cho Google rồi nó mới tiến hành mua
@vqt907 Ông thì làm gì có dữ liệu gì mà phải dấu.nguy hiểm quá 😃)
Ông google này có nhiều thứ hay ho thật
Quá kinh khủng
Nó chỉ tập trung làm 1 việc thôi. Nên nó nhanh là phải 😁
Coi phim Ex Machina mới thấy trí tuệ nhân tạo lấy thông tin từ đâu .
cộng với việc google đang phát triển 1 hệ điều hành riêng 😁
skynet
@haolevu Đó ko phải là HĐH mà là Trí thông minh nhân tạo nhóa.
cái này chơi game thì vô đối
con này là lí do chơi pokemon miễn phí
QuanLienko: Giật mình tưởng bác card màn hình trở về với top =)).
Mình tin rằng đây là một phần trong âm mưu kiểm soát toàn thế giới.

Bằng những kỹ thuật này, họ sẽ tạo ra 1 công nghệ cập nhật mọi thứ diễn ra trên thế giới theo thời gian thực. Và tương lai mọi cá nhân trên thế giới đều bị kiểm soát sắp đến rồi.
mai mốt sẽ xử lý mọi vật thể động... tiêu diệt con người
GTX 1080 chắc xử lý nhanh gấp 10 lần nhưng ăn điện chắc gấp 20 lần 😁
thế này thì DGX1 của nvidia để đâu
@TiaMe Giá con DGX cao quá. 130k Obama lận. Sao a e chơi đc.
Chỉ có fund của nhà nước mới dám sắm DGX
@viettan28 cho hẵn 3 tỹ giá vẫn quá rẻ,1 đội lập trình machine learning là e nghĩ lấy lại dc vốn trong chưa đầy 1 năm
Đề nghị một số bác comment có suy nghĩ 1 tí.
Card GTX là cho chơi game
Card Quadro là cho dựng hình, render
Card Tesla là cho tính toán độ chính xác cao như nghiên cứu vật lí, hóa học, vũ trụ
Còn con TPU này chuyên để xử lý Machine Learning cụ thể là Deep Learning.

Thật sự nghe các bác lôi con TPU này ra bảo chơi game thấy thiếu tôn trọng khoa học quá.

Bác nào muốn biết card này nó làm gì thì học ở đây nhé hàng chính hãng. https://www.tensorflow.org/
@viettan28 GTX với Quadro không làm Machine Learning được à? Hay là làm không nhanh?
@rasputin Khi xây dựng mấy cái đó thì lõi CUDA vẫn chủ yếu được dựng lên với mục đích chính là đồ họa. Người ta thấy nó chạy tốt cho deep learning thôi chứ nó bản chất tạo ra không với mục đích chính là Deep Learning.
Thứ hai là Deep Learning chỉ cần độ chính xác thấp thôi, cỡ 16 bit. Mà các card GTX... thường tính toàn với số FP32 (bit) thậm chí Tesla còn sd (FP64) bit. Làm chậm quá trình training.
Do đó Google ms phải tạo ra TPU để sử dụng riêng chứ không sử dụng mấy cái có sẵn của nVidia
@viettan28 Bạn nói dài quá mà vẫn không trả lời câu hỏi của mình là làm được không và làm nhanh không.
Mình tưởng nếu chuyên sâu thì 1 con TPU phải xử lý nhanh hơn CPU 100-1000 lần, tức là tương đương CPU 20-30 thế hệ sau chứ nhỉ.
Cứ nhìn cách GPU xử lý hình ảnh và có tốc độ tính toán nhanh hơn CPU cùng thế hệ bao nhiêu lần là biết.
  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2020 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: 209 Đường Nam Kỳ Khởi Nghĩa, Phường 7, Quận 3, TP.HCM
  • Số điện thoại: 02862713156
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019