Rủi ro đến từ mô hình A.I mã nguồn mở của Llama 3.1

nhatminhngo
25/7/2024 23:23Phản hồi: 0
Rủi ro đến từ mô hình A.I mã nguồn mở của Llama 3.1
AI mang lại nhiều lợi ích, nhưng chính công cụ này cũng mang lại những rủi ro nhất định nếu nó không được sử dụng một cách đúng đắn. Meta với mô hình Llama 3.1 cùng cách tiếp cận mới lại một lần nữa dấy lên quan ngại về sự an toàn và kiểm soát.

Cách tiếp cận khác biệt

Anh em chắc cũng thấy rõ là các công ty như OpenAI, Google sau khi ra mắt mô hình AI của họ đều đi theo con đường thương mại hóa thông qua các gói thuê bao trả phí hàng tháng. Cũng vì thế, việc của người dùng là trả tiền và sử dụng. Hết. Ngoài ra, việc can thiệp, tùy chỉnh các mô hình là hoàn toàn không thể thực hiện được.


Meta thì ngược lại. Công ty này đã lựa chọn một hướng đi khác khi cho ra mắt Llama 3.1 dưới dạng mã nguồn mở, hoàn toàn miễn phí và người dùng có thể dễ dàng truy cập được. Nói sơ về mô hình này thì nó được đánh giá là một mô hình trí tuệ nhân tạo thông minh nhất trên thế giới, hoàn toàn có khả năng cạnh tranh được với các sản phẩm của OpenAI, Google cho mục đích thương mại hóa. Câu hỏi đặt ra là tại sao Meta lại tiếp cận mọi thứ theo hướng này khi chính CEO của công ty, Mark Zuckerberg đã khẳng định rằng Meta đã đầu tư rất nhiều tiền vào AI.

Để giải thích cho điều này, chính Mark Zuckerberg đã đề cập sự xuất hiện của Linux vào những năm 1990 dưới dạng nguồn mở. Hệ điều hành này vất vả cạnh tranh với Microsoft Windows hùng mạnh để dần trở thành một nền tảng quan trọng sử dụng trong rất nhiều hệ thống đám mây, máy chủ và các thiết bị Android ngày nay. Với cách nhìn đó, Zuckerberg cũng muốn tiếp cận AI theo cách tương tự khi nó cho phép người dùng, đặc biệt là các nhà nghiên cứu, các startup hiểu rõ được tiềm năng của AI và tạo ra một mô hình dành riêng cho họ. Ngoài ra, Zuckerberg cũng cho rằng việc đi theo con đường này sẽ hạn chế nguy cơ gián điệp từ Trung Quốc dành cho thung lũng Silicon, nơi vốn là một món mồi ngon trong suốt những thập kỷ vừa qua.

Rủi ro

Tuy nghe hào nhoáng là thế, nhưng cách tiếp cận này cũng tạo nên những rủi ro nhất định khi Meta cho phép người dùng huấn luyện các mô hình của họ trên Llama 3.1. Rủi ro lớn nhất là nếu công cụ mạnh mẽ này được sử dụng vào các mục đích không đúng đắn thì sẽ như thế nào? Đơn cử là các hacker hay tội phạm có thể sử dụng AI mã nguồn mở này để thúc đẩy các hành vi phi pháp như vũ khí sinh hóa, buôn bán con người, v.v.


Thật ra, những vấn nạn này đã được nhắc đến từ khi AI bắt đầu xuất hiện cùng ChatGPT, Gemini. Cũng chính vì thế các công ty này hiện đang không cho phép người dùng tùy chỉnh mô hình của họ. Hướng đi của Meta có thể sẽ thúc đẩy sự phát triển của AI theo một hướng đa dạng hơn nhưng nó cũng để lại những hệ lụy nhất định. Điều này đòi hỏi cần có những biện pháp kiểm soát, những lằn ranh quản lý mà AI không được phép vượt qua.

Nguồn: Wired
Chia sẻ

Xu hướng

Xu hướng

Bài mới










  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019