[Dịch] AI cho an toàn không gian mạng là một chủ đề nóng và cũng là một canh bạc

Thảo luận trong 'Thông tin công nghệ' bắt đầu bởi sonlax, 12/8/18. Trả lời: 2, Xem: 11001.

Chia sẻ

  1. sonlax

    sonlax Dự bị

    Tham gia:
    28/7/18
    Được thích:
    0
    Best Answers:
    0
    sonlax
    Trứng
    #1 sonlax, 12/8/18
    Sửa lần cuối: 12/8/18

    Học máytrí tuệ nhân tạo có thể bảo vệ chúng ta trước những cuộc tấn công không gian ảo, nhưng hackers cũng có thể đánh bại những thuật toán bảo mật đó bằng việc nhắm vào những dữ liệu mà thuật toán dùng để học (training) và những dấu hiệu cảnh báo mà nó đang tìm kiếm.



    Khi đang dạo bước tại tầng triển lãm ở buổi hội thảo nổi tiếng về bảo mật không gian ảo, Black Hat, tại Las Vegas tuần này, tôi đã rất bất ngờ về số lượng những công ty nhắc đến việc họ đang sử dụng học máy và AI để làm thế giới này trở nên an toàn hơn.

    Tuy nhiên, lại có một số chuyên gia ở đây lại lo lắng rằng, các công ty hiện nay đang thiếu chú ý đến những rủi ro đi kèm với việc phụ thuộc quá nhiều vào những công nghệ này. "Những điều đang xảy ra là đáng lo ngại và trong một số trường hợp, nó thậm chí còn thực sự nguy hiểm", cảnh báo bởi Raffael Marty thuộc công ty bảo mật Forcepoint.

    Việc ngành công nghiệp bảo mật đang đói khát tìm kiếm các thuật toán là điều dễ hiểu. Họ đang phải đối mặt với một "cơn sóng thần" của những cuộc tấn công bởi sự bùng nổ của số lượng thiết bị kết nối mạng internet. Cùng lúc đó là sự thiếu hụt trầm trọng những kỹ sư giỏi trong ngành bảo mật.

    Sử dụng thuật toán học máy và trí tuệ nhân tạo để tự động hoá việc xác định, đáp trả các mối nguy hiểm có thể dễ dàng giảm tải sự phụ thuộc vào nhân viên và mang lại hiệu quả hơn so với các hướng triển khai dựa trên phần mềm khác.


    Mối nguy hiểm từ dữ liệu

    Tuy nhiên, Marty và các nhà diễn giả khác tại sự kiện Black Hat cho rằng, một số lượng tương đối các công ty đang triển khai các sản phẩm áp dụng thuật toán Machine learning chỉ đơn giản vì họ cảm thấy cần thiết để có thể lôi kéo các khách hàng đã ở trong vòng xoáy AI đầy hấp dẫn này. Và điều nguy hiểm ở đây là họ sẽ bỏ qua rất nhiều trường hợp mà thuật toán Machine learning có thể mắc sai lầm về sự bảo mật.

    Rất nhiều sản phẩm được triển khai dựa vào phương thức học có giám sát (supervised learning), một phương thức yêu cầu các công ty phải lựa chọn và gắn nhãn các tập dữ liệu mà thuật toán sẽ sử dụng để học, ví dụ như dãn nhãn "bẩn" cho các đoạn code có nhiễm malware hay nhãn "sạch" cho đoạn code không nguy hại.

    Marty cho rằng, một rủi ro ở đây là khi phải chạy đua trong việc dưa sản phẩm ra thị trường, các công ty sử dụng tập dữ liệu chưa được quét một cách cẩn thận các điểm bất thường. Điều đó có thể dẫn đến việc thuật toán sẽ không nhận diện được một số phương thức tấn công. Một hệ quả nữa là những hacker có khả năng tiếp cận được các công ty bảo mật sẽ có khả năng làm hỏng các dữ liệu bằng việc đổi nhãn cho các đoạn code bẩn thành code sạch.

    Những kẻ xấu thậm chí còn chẳng cần làm xáo trộn dự liễu mà thay vào đó, chúng sẽ tìm ra những đặc điểm trong các đoạn code mà những mô hình sử dụng để xác định là "bẩn". Sau đó, chúng loại bỏ những đặc điểm này trong các đoạn code để các thuật toán không thể phát hiện ra.


    Lấy trứng chọi đá

    Trong một phiên của hội nghị, Holly Stewart và Jugal Parikh thuộc Microsoft đã cảnh báo về rủi ro của việc quá phụ thuộc vào chỉ một thuật toán để điều hành cả một hệ thống bảo mật. Sự nguy hiểm ở đây là nếu thuật toán đó bị hoá giải, sẽ không có một dấu hiệu nào khác cho thấy điều đó.

    Để tránh khỏi điều này, mô-đun bảo vệ các mối nguy hiểm nằm trong phần mềm bảo mật Microsoft's Windows Defender sử dụng một tập hợp đa dạng các thuật toán, với những tập dữ liệu được sử dụng để học khác nhau (training set) và sở hữu những đặc trưng (feature) khác nhau. Cho nên, nếu một thuật toán bị hack, kết quả từ những thuật toán khác sẽ cho thấy sự bất thường, với giả sử những thuật toán còn lại đó chưa bị hack.

    Không những thế, Marty còn đưa ra một chú ý rằng với những thuật toán phức tạp, việc lý giải những kết quả trả về trong một số trường hợp có thể rất khó khăn. Vấn đề "có thể lý giải" này có thể tạo ra những rào cản trong việc đánh giá nguyên nhân của những ghi nhận bất thường.

    Tuy nhiên, điều này không có nghĩa AI và Machine learning không nên được đóng vai trò là món vũ khí quan trọng trong hàng phòng thủ. Thông điệp ở đây từ Marty và những chuyên gia khác, tới các công ty và khách hàng của họ là tầm quan trọng của việc theo dõi, giảm thiểu rủi ro đến từ những mô hình thuật toán.

    Đây không phải là một vấn đề nhỏ bởi những con người, sở hữu một lượng kỹ năng lý tưởng về cả an toàn không gian mạng và khoa học dữ liệu, hiếm như những ngày hè mát mẻ ở Las Vegas.

    Nguồn
    Martin Giles - MIT Technology Review
     

    Chia sẻ

    #1 sonlax, 12/8/18
    Sửa lần cuối: 12/8/18
  2. Trung Hiếu CCTV

    Trung Hiếu CCTV Dự bị

    Tham gia:
    8/8/18
    Được thích:
    1
    Best Answers:
    0
    Trung Hiếu CCTV
    Trứng
    AI phát triển thì là cái tốt, nếu nói về sợ phụ thuộc, rủi ro, thì tốt hơn nên tối ưu hóa và khắc phục, cải tiến nó để những rủi ro không xảy ra đi
     
  3. shindojack

    shindojack Dự bị

    Tham gia:
    13/8/18
    Được thích:
    2
    Best Answers:
    0

Chia sẻ

Đang tải...