Tội phạm dùng AI: Giả giọng CEO để lừa đảo, may mắn không ai mắc bẫy

P.W
20/4/2024 9:25Phản hồi: 18
Tội phạm dùng AI: Giả giọng CEO để lừa đảo, may mắn không ai mắc bẫy
Sự cố vừa xảy ra với đơn vị phát triển công cụ quản lý mật khẩu LastPass. Những tội phạm công nghệ cao đã sử dụng công cụ AI để làm ra một đoạn tin nhắn thoại giả giọng CEO LastPass, Karim Toubba rồi gửi qua WhatsApp để tìm cách trục lợi. Nhân viên nhận được hàng loạt những tin nhắn, tin nhắn thoại và cả âm thanh tạo ra bằng công cụ deepfake từ tài khoản giả mạo ông Toubba.

Nhưng vì là tài khoản giả mạo nên không nằm trong luồng tài khoản và các kênh chính thức phục vụ cho công việc, nên nhân sự này đã tỉnh táo lờ hết chúng đi, rồi báo cáo cho mảng an ninh mạng nội bộ của công ty.

LastPass cho biết, sự cố này hoàn toàn không gây ảnh hưởng tới bảo mật và quá trình kinh doanh của công ty. Sau đó, đội ngũ an ninh mạng của công ty đã công bố thông tin về sự cố, để cảnh báo mọi người về tình trạng sử dụng những công cụ AI làm giả âm thanh, gương mặt của những nhân sự chính thức trong công ty, nhằm mục đích xấu, như chiếm quyền điều khiển máy chủ hoặc ăn trộm tiền.

Trước đây từng có một tập đoàn đa quốc gia bị lừa mất hơn 25 triệu USD vì những tội phạm công nghệ cao tạo hình deepfake giám đốc tài chính tập đoàn, mở cả họp online để khiến một nhân viên chủ chốt mất cảnh giác, chuyển tiền theo yêu cầu của bọn tội phạm:

Lừa đảo deepfake khi họp online, cuỗm được 25 triệu USD từ một tập đoàn

Chi nhánh Hong Kong của một tập đoàn đa quốc gia vừa bị lừa mất 200 triệu Đô la Hong Kong, tương đương 25.6 triệu USD sau một cuộc họp trực tuyến. Kẻ lừa đảo dùng deepfake để giả mạo giám đốc tài chính của tập đoàn, tổ chức họp online…
tinhte.vn


Bản thân chất lượng âm thanh giả giọng người khác, tạo ra bằng những công cụ AI cũng càng lúc càng trở nên hoàn thiện và giống thật. Những công nghệ và công cụ tạo âm thanh bằng thuật toán AI giờ cũng vô cùng phổ biến và chi phí rẻ, ai cũng có thể tiếp cận, làm quen và sử dụng. Và khả năng AI được tội phạm sử dụng vào mục đích xấu sẽ chỉ có thể trở nên phổ biến hơn, khó phát hiện hơn trong tương lai, khi những công nghệ này càng lúc càng hoàn thiện.

Theo Techspot
18 bình luận
Chia sẻ

Xu hướng

Mặt trái của AI
@Delete_ducthinh_dn đúng là có thể nguy hiểm hơn, nhưng còn ngược lại thì sao?? Bác cũng không tính đến chuyện nó cực kì có ích cho con người à???
@Delete_ducthinh_dn Đặc biệt là cái bút chì
Cười vô mặt
@Lonely08 Giả dọng nói thì có ích gì bạn 😆)) Ai không biết Ai giúp cho mọi thứ tiện lợi dễ dàng hơn. Nhưng mà thật tế người dùng phổ thông chưa cảm nhận được lợi ích thì những công cụ này đã được phát triển để lừa gạt trước rồi 😃))
@Tiến Minh Đỗ cái chuyện công cụ bị người tốt hay kẻ xấu lợi dụng thì rất bình thường, mà ở đây đang nói về AI nói chung mà chứ có nói riêng là AI giọng nói đâu... Mấy cái này mốt có thuốc trị hết à
cac doanh ngịp nên có người phụ trach mảng an ninh ,phản gián
tạo 1 qui trình để cac nhân sự xac nhận lẫn nhau
với AI ,thì mọi tổ chưc đều có thể dính imposter
Đó là lý do tại sao Apple ko theo xu hướng AI. Hại nhiều hơn lợi.
@para-hạ-sốt do apple tụt hậu bạn ơi! Giờ đang đú theo đó! (mình cũng fan apple nhé)
@para-hạ-sốt Cái này do nó chậm, fan cũng phát biểu sao cho tỉnh táo tí bạn.
Mốt vợ lấy AI giả giọng bạn gái call hẹn đi ăn là bỏ moẹ
khá nguy
chẳng may các mod có nhận được cuộc gọi sa thải từ cu Hiệp nhớ kiểm tra lại nhé
Kinh thật
Phải có 1 quy trình riêng để xác thực nội dung. Ví dụ như mình với các con có quy định một mật khẩu riêng. Khi có người lạ đón con thì con phải hỏi mật khẩu.

Người đón đọc đúng mật khẩu:

"Mèo mướp bị cướp trên dàn mướp"

thì con mới được theo ra về.

Và nhớ dặn con bảo mật mật khẩu này, đừng chia sẻ lung tung là điều quan trọgn nhất.
Nguy hiểm không lường trước được...

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019