Đã đến thời dùng AI giả gương mặt người nổi tiếng để quảng cáo lừa đảo

P.W
4/10/2023 5:12Phản hồi: 19
Đã đến thời dùng AI giả gương mặt người nổi tiếng để quảng cáo lừa đảo
Hôm chủ nhật vừa rồi, chính chủ tài khoản mạng xã hội của diễn viên gạo cội Tom Hanks đã phải đăng story cảnh báo mọi người, sau khi ông phát hiện ra có người dùng AI ghép mặt và cử động miệng để làm giả clip ông quảng cáo gói bảo hiểm nha khoa trên mạng xã hội. Ngay ngày hôm sau, đến lượt Gayle King, người dẫn chương trình thời sự trên kênh CBS cũng bị lấy hình ảnh gương mặt và dùng AI để chế ra một đoạn clip cô này quảng cáo sản phẩm hỗ trợ giảm cân. Rồi đến lượt MrBeast, YouTuber nổi tiếng cũng bị lấy mặt để chế clip lừa đảo tặng iPhone 15, đăng tải trên mạng xã hội X.

MrBeast, tên thật James Stephen Donaldson sau đó có tuyên bố như thế này: “Rất nhiều người đã xem được đoạn quảng cáo lừa đảo với gương mặt của tôi bị chế bằng deepfake. Các nền tảng mạng xã hội liệu đã chuẩn bị tinh thần đối phó với sự phổ biến của deepfake bằng AI hay chưa? Đây là một vấn đề cực kỳ nghiêm trọng,”

Thật ra chuyển qua tới thế giới mạng xã hội Việt Nam, deepfake cũng đang được ứng dụng theo cách vô cùng đa dạng. Vui vẻ như kiểu chế gương mặt của Lionel Messi và Cristiano Ronaldo vào clip TikTok để bán hàng có. Nghiêm trọng và nguy hiểm hơn là giả mạo công an, lấy hình người quen để tạo clip deepfake lừa đảo vay tiền hay lừa đảo chuyển tiền. Riêng vụ deepfake người quen để lừa đảo, lợi dụng sự sơ hở của người dùng smartphone thì mình đã gặp rồi, gương mặt làm giả bằng ứng dụng AI vừa đơ vừa vô hồn, môi không cử động còn mắt thì chớp liên tục.

Nhưng xét riêng cộng đồng mạng internet Việt, những công cụ deepfake sử dụng thuật toán AI để ghép mặt thường chỉ là những giải pháp thế hệ cũ. Tốc độ phát triển của những thuật toán machine learning giờ có khi còn nhanh hơn cả tốc độ phát triển của công nghệ phần cứng. Rồi sẽ tới lúc xuất hiện những đoạn clip đủ chi tiết và chân thực để đánh lừa bất kỳ ai. Một chi tiết đã có thật, đó là công cụ deepfake giọng nói, chỉ cần sample ngắn là tạo ra được cả một đoạn âm thanh giả giọng một người rồi.

Nói câu chuyện hơi xa một chút. Những sự cố liên quan tới mặt người nổi tiếng bị lấy để ghép deepfake phục vụ quảng cáo lừa đảo lại trùng hợp với chính cuộc đình công mà những người làm trong ngành sáng tạo và phim ảnh ở Hollywood đang thực hiện. Một nguyên nhân mà các biên kịch và diễn viên Mỹ đình công chính là do sự trỗi dậy của AI, với khả năng ghép gương mặt của mọi diễn viên vào cảnh phim, bất kể họ có cho phép hay không, hay thậm chí còn sống hay không. Zelda Williams, con gái cố danh hài Robin Williams từng đề cập đến chuyện đó, khi mọi người chế lại giọng của cha cô mà không hề xin phép.

Về phần các tập đoàn công nghệ khổng lồ, họ đang tìm những cách để giảm thiểu tác động tiêu cực từ công nghệ AI tạo nội dung. Google hay OpenAI đang tìm cách đóng watermark cho những nội dung tạo ra bằng thuật toán AI. Nhưng ngoài ra, không thiếu những công cụ cho phép chế cháo gương mặt, cử động môi, âm thanh hay cả đoạn clip deepfake mà không có watermark để mọi người dễ nhận diện.

Ngay từ cái thời điểm deepfake bắt đầu hiện diện, đã có những lo ngại rằng công nghệ này sẽ bị sử dụng vào mục đích xấu. Những lo ngại ấy, dựa trên những ví dụ được liệt kê trên đây, là hoàn toàn có lý. Chỉ tới khi tất cả mọi người đều biết tới cách deepfake hay AI tạo nội dung vận hành, thì những kẻ muốn lợi dụng AI để trục lợi mới bị cản trở

Theo ArsTechnica
19 bình luận
Chia sẻ

Xu hướng

8Keo
CAO CẤP
8 tháng
Thời của fake news, lừa đảo, lừa tỉnh đã đến điểm thịnh hành rồi.
@8Keo Cát Tường, Quyền Linh có cái để đổ thừa rồi 🤣
Chủ yếu bọn T.àu nó dùng AI để lừa đảo để lan truyền tin giả, chứ người ở các nước ngoài họ sống rất chân chất thật thà nên chả bao giờ phải sợ họ lừa ai cả !
@Nguyễn_Văn_Triệu Bạn ra nước ngoài sống vài năm sẽ biết họ chân thật hay chân giả
@Nguyễn_Văn_Triệu Đông Là.o tuyên bố Ai T.àu và các nước khác tuổi lol :
@Nguyễn_Văn_Triệu Thằng VN mới là thằng lừa đảo nhiều nhất thế giới.
Để ý các Review phim của nước ngoài khi có ai hỏi tên bộ phim họ thường dẫn tên chính xác.
Còn ở VN thì 99% là trả lời bằng cái Link Hack lừa đảo.
@Methanol Ngiu ! Không biệt được AI và không AI.
GiT
CAO CẤP
8 tháng
Điều này đã được cảnh báo trước, cứ cổ vũ ML đi, cứ dùng mấy app đổi khuôn mặt tào lao đi, đừng nói là mình có mất gì đâu, giờ thì mất nhiều rồi đó. Cuộc sống lúc nào cũng chỉ quanh cái điện thoại, sống ảo riết quen nên giờ nhiều người còn không dám ra đường vì hình ảnh trên mạng xã hội lúc nào cũng một đống filter, mà mấy cái filter này cũng có cần đến ML mới giúp được các nhân cách ảo đú trend...
Cười vô mặt
Quyền Linh và Cát Tường có dính tới c nghệ này ko???
tuluan
TÍCH CỰC
7 tháng
Giả công an để lừa đảo bữa giờ mà thấy ae post video lên nhưng nhìn kỹ vẫn chưa chuẩn lắm.
@tuluan Từ từ nó sẽ chuẩn🤣
Liệu cu Hiệp trong các clips drop test vừa rồi có phải là cu Hiệp thật không nhỉ
Chỉ tới khi tất cả mọi người đều biết tới cách deepfake hay AI tạo nội dung vận hành, thì những kẻ muốn lợi dụng AI để trục lợi mới bị cản trở

Câu này máy dịch rồi nha
Cát Tường, Quyền Linh có cái để đổ thừa rồi 🤣
cứ có deep fake trót lọt trở nên thịnh hành thì phạt bên nền tảng, ví dụ như youtube, tiktok, fb thì họ sẽ phải tự lọc gắt thôi
lazy0338
ĐẠI BÀNG
7 tháng
Kinh vãi
Quyền Lênh thời đến rồi 😁

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019