Chế 22 GB VRAM cho RTX 2080 Ti, phục vụ thị trường nghiên cứu AI, giá 499 USD

P.W
15/2/2024 15:50Phản hồi: 30
Chế 22 GB VRAM cho RTX 2080 Ti, phục vụ thị trường nghiên cứu AI, giá 499 USD
Đó là những diễn biến mới trên thị trường tự do. Khi những GPU dành riêng cho nhu cầu nghiên cứu mô hình hay vận hành AI đang khan hiếm, thì nhiều bên đã bắt đầu tìm tới nguồn GPU tiêu dùng. Một vấn đề của GPU chơi game khi đem qua dùng vận hành AI, là card AMD thì không thiếu VRAM, nhưng thuật toán được viết để tận dụng tối ưu API CUDA của card Nvidia chứ không phải ROCm. Còn card đồ họa gaming Nvidia thì luôn gặp vấn đề với việc thiếu hụt VRAM, chỉ lên tới những giải pháp trang bị 16 hay 24GB như RTX 4080 và 4090 thì mới tạm đủ.

Vậy là thị trường GPU đã qua sử dụng bắt đầu có những bên độ chế lại những card đồ họa thế hệ cũ, hàn thêm hoặc đổi hẳn chip VRAM để đủ bộ nhớ vận hành những mô hình ngôn ngữ hay thuật toán deep learning. Chẳng hạn như trên eBay, vừa có người phát hiện ra những cửa hàng bán RTX 2080 Ti với giá lên tới 499 USD, nhưng đi kèm với đó là 22GB VRAM. Bộ nhớ dung lượng lớn này được dùng làm bộ nhớ đệm cho những gói dữ liệu khổng lồ, những mô hình phức tạp, hay những phép tính số thực dấu phẩy động cần thiết để những thuật toán AI vận hành.

Đấy cũng chính là lý do nếu làm hình bằng những model dựa trên Stable Diffusion, anh em sẽ thấy những mẫu card đồ họa với 16GB VRAM trở lên luôn chạy ở tốc độ ưng ý, chứ không chỉ liên quan tới sức mạnh tính toán của con chip GPU.

Lấy một ví dụ, RTX 2080 Ti 22GB VRAM chỉ mất có 5.4 giây để tạo ra một bức hình độ phân giải 512x768 pixel với Stable Diffusion, mô tả lợi thế của bộ nhớ dung lượng lớn.



Thiết kế cũng ứng dụng tản nhiệt dạng lồng sóc, độ dày chỉ 2 slot PCIe nên mẫu card này rất phù hợp trang bị cho những server blade vận hành nghiên cứu huấn luyện mô hình hay vận hành mô hình ngôn ngữ hay những thuật toán AI.

Theo quảng cáo của cửa hàng trên eBay, RTX 2080 Ti 22GB VRAM đã được thử nghiệm với Stable Diffusion, với mô hình ngôn ngữ LLaMa 2 của Meta, và vận hành ngay lập tức không cần chỉnh BIOS, hỗ trợ hoàn hảo driver chính thức của Nvidia, nhưng với giá rẻ hơn gấp rưỡi so với RTX 3090 với dung lượng bộ nhớ tương đương. Và vì là một card đồ họa chơi game, nên không có những rắc rối liên quan tới những sản phẩm như RTX A5000, được tạo ra phục vụ nhu cầu vận hành workstation và nghiên cứu AI, không thể chơi điện tử.

Tính ra thì ở thời điểm một chiếc RTX 2080 Ti cũ có giá từ 300 đến 400 USD trên eBay, thì mức giá 500 USD cho dung lượng VRAM cao gấp đôi cũng không quá đắt so với nhu cầu xử lý AI của cá nhân và vài doanh nghiệp vừa và nhỏ. Và nếu như anh em thấy 22GB là nhiều, thì hồi tháng 6 năm ngoái, đã có người chế được ra cả RTX 2080 Ti với 44GB VRAM.

Theo WCCFTech
30 bình luận
Chia sẻ

Xu hướng

Đang dùng 8 Gb vram mà thém
Xời với apple 8GB hơn 16GB ram hãng khác kìa. nên card này mà chạy trên macos được thì cần 12GB ram thôi chứ cần gì 22GB ram phí thế.
@ragefighter Chơi ít thôi ngáo lắm rồi đấy
@ragefighter bớt ngáo, cái nào ra cái đó Vram GPU liên quan gì RAM =))))) ngta ngáo nên mình ngáo theo ah :v
P.Q.K
ĐẠI BÀNG
2 tháng
@ragefighter Apple nào làm VGA ???
@ragefighter anti cũng lên học hỏi chút bạn nhé =))))
GiangSCE
TÍCH CỰC
2 tháng
Giá rẻ gấp rưỡi là sao? Đã rẻ lại còn gấp, lú luôn
GiT
TÍCH CỰC
2 tháng
@GiangSCE Đặc sản tinhte, kẻ hủy diệt ngôn ngữ... 🤣
Do bọn NVIDIA keo kiệt VRAM chứ card AMD từ xưa lắc đã được cho cả đống VRAM bán vẫn lời chứ có lỗ đâu
kyn_krai
TÍCH CỰC
2 tháng
@Lizzie Kute Choẻn, mình đang RX 6900 XT 16GB VRAM chơi game chả phải lo nghĩ bật tắt cái này cái kia gây hết bộ nhớ 😁
@kyn_krai Máy nhà mình build 4070. Chơi game 2K thì không vấn đề gì nhưng mà cứ chạy app dùng tới AI như Lr thì 12GB cứ như gà mắc tóc
Trước máy mình có 4GB VRam cũng đú với SD, vẫn đc nhưng ko hiệu quả vì nó quá mất thời gian mà kết quả ko ra gì. Giờ tụi nó chế cháo lên tận 22GB VRam thì ngon hơn hẳn.
Đang xài 2 con server dùng 2080 ti 11GB vRAM nhìn vô thèm quá 😆
@Duy Luân 😁 Mua tạm 3090 là đủ xài
@narutoxboy Giờ kiếm cũng khó lắm bạn, mà chi phí mỗi tháng khi đó cũng cao so với mục đích của tụi nó 😆 mà giờ có cả 4090 nữa 😃)
@Duy Luân 😔 Tầm này đúng khó thật, kiếm 2nd cũng đội giá,1 đến 2 con thì vẫn có 😁
Chip M chạy AI youtube mạnh mẽ lại tiếc kiệm điện thì ko mua
mua mấy con phế phẩm nàyy làm gì
Hết coin giờ lại đến ai.
😆 Nhìn bo mạch con 2080Ti đúng tiền đình thật =)))
back-full[1].jpg
mình chỉ chơi game vừa vừa ở phân giải 4K đã ăn gần hết 12gb vram rồi (cụ thể là PC building stimulator 2) thì đúng là mấy tác vụ nghiên cứu này phải nhiều VRAM cỡ nào nữa mới vừa.
oldman20
TÍCH CỰC
2 tháng
Quả VRam cao nhất mình dùng là 2G 🤣
Dám chắc là nguồn độ chế này ở bên a bạn hàng xóm luôn

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019