Neural Network – Mối đe dọa có thể che giấu phần mềm độc hại(Malware)

Mắt Bão 09/06/2022 12 phút đọc

 

Với hàng triệu và hàng tỷ tham số, mô hình học sâu có thể thực hiện nhiều việc: phát hiện các đối tượng trong ảnh, nhận dạng giọng nói, tạo văn bản và ẩn phần mềm độc hại(Malware). Một trong những nghiên cứu trong đó có Đại học California đã phát hiện ra rằng Neural Network có thể nhúng các tải trọng độc hại mà không cần kích hoạt chống phần mềm độc hại.

Kỹ thuật che giấu phần mềm độc hại(Malware) của họ, làm dấy lên những lo ngại về bảo mật, vốn đã trở thành chủ đề thảo luận sôi nổi trong các hội nghị về học máy và an ninh mạng. Khi học sâu(Deep Learning) trở nên ăn sâu vào các ứng dụng mà chúng ta sử dụng hàng ngày, cộng đồng bảo mật cần phải suy nghĩ về những cách để bảo vệ người dùng mạng trước các mối đe dọa trong tương lai.

Neural Network có thể che giấu phần mềm độc hại(Malware)

Bài viết liên quan:

1. Khái niệm về Neural Network

Neural Network(Mạng nơ-ron)là một chuỗi các thuật toán cố gắng nhận ra các mối quan hệ cơ bản trong một tập hợp dữ liệu thông qua một quá trình bắt chước cách bộ não con người hoạt động. Theo nghĩa này, mạng nơ-ron đề cập đến hệ thống nơ-ron, có thể là hữu cơ hoặc nhân tạo trong tự nhiên.

Mạng nơ-ron có thể thích ứng với việc thay đổi đầu vào để mạng tạo ra kết quả tốt nhất có thể mà không cần thiết kế lại các tiêu chí đầu ra. Khái niệm về Neural Network có nguồn gốc từ trí tuệ nhân tạo(AI) đang nhanh chóng trở nên phổ biến trong sự phát triển của các hệ thống giao dịch .

Neural Network đánh giá dữ liệu giá cả và tìm ra cơ hội để đưa ra quyết định thương mại dựa trên phân tích dữ liệu. Các mạng có thể phân biệt sự phụ thuộc lẫn nhau phi tuyến tinh vi và các mẫu mà các phương pháp phân tích kỹ thuật khác không làm được.

2. Ẩn phần mềm độc hại(Malware) trong mô hình học sâu(Deep Learning)

Mọi mô hình học sâu đều bao gồm nhiều lớp tế bào AI . Dựa trên mỗi loại, mỗi tế bào thần kinh có kết nối với tất cả hoặc một số tế bào thần kinh trên cả lớp trước và lớp sau. Độ mạnh của các kết nối này được xác định bởi các tham số số trong quá trình huấn luyện, khi mô hình Deep Learning học nhiệm vụ mà nó đã được thiết kế. Các Neural Network lớn có thể bao gồm hàng trăm triệu hoặc thậm chí hàng tỷ tham số.

Ý tưởng chính đằng sau Evil Model là nhúng phần mềm độc hại(Malware) vào các tham số của mạng nơ-ron theo cách làm cho phần mềm này ẩn đối với các máy quét phần mềm độc hại(Malware). Đây là một dạng thực hành che giấu một phần thông tin trong một phần khác.

Đồng thời, Deep Learning khi bị nhiễm phải thực hiện nhiệm vụ chính của nó (ví dụ: phân loại hình ảnh) cũng như hoặc gần như là một mô hình an toàn để tránh gây ra sự nghi ngờ hoặc làm cho nó trở nên vô dụng đối với nạn nhân của nó.

Cuối cùng, kẻ tấn công phải có một cơ chế để cung cấp mô hình bị nhiễm đến các thiết bị mục tiêu và trích xuất phần mềm độc hại(Malware) từ các tham số của Neural Network.

3. Thay đổi giá trị tham số trong mô hình học sâu(Deep Learning)

Hầu hết các mô hình Deep Learning sử dụng số dấu phẩy động 32 bit (4 byte) để lưu trữ các giá trị tham số. Theo thử nghiệm của các nhà nghiên cứu, kẻ tấn công có thể lưu trữ tới 3 byte phần mềm độc hại(Malware) trong mỗi tham số mà không ảnh hưởng đáng kể đến giá trị của nó.

Thay đổi các giá trị trong mô hình học sâu(Deep Learning)

Thay đổi các giá trị trong mô hình học sâu(Deep Learning)

Khi lây nhiễm mô hình học sâu, kẻ tấn công chia Malware thành các phần 3 byte và nhúng dữ liệu vào các tham số của nó. Để đưa phần mềm độc hại(Malware) đến mục tiêu, kẻ tấn công có thể công bố mạng nơ-ron bị nhiễm trên một trong số các địa điểm trực tuyến lưu trữ các mô hình Deep Learning như GitHub hoặc TorchHub.

Ngoài ra, kẻ tấn công có thể thực hiện một dạng tấn công chuỗi cung ứng phức tạp hơn, trong đó mô hình bị nhiễm Malware được phân phối thông qua các bản cập nhật tự động cho phần mềm được cài đặt trên thiết bị mục tiêu. Khi mô hình bị nhiễm Malware được chuyển đến nạn nhân, một phần mềm sẽ trích xuất tải trọng và thực thi nó.

Ẩn phần mềm độc hại(Malware) trong mạng nơ-ron(Neural Network) phức hợp

Để xác minh tính khả thi của EvilModel, các nhà nghiên cứu đã thử nghiệm nó trên một số Neural Network phức hợp( CNN). Vì chúng khá lớn, thường chứa hàng chục lớp và hàng triệu tham số. Đồng thời CNN chứa một kiến ​​trúc đa dạng và bao gồm các loại lớp khác nhau (được kết nối đầy đủ, kết hợp) và các kỹ thuật tổng quát hóa khác nhau (chuẩn hóa hàng loạt, lớp bỏ qua, lớp gộp, v.v.), giúp bạn có thể đánh giá tác động của việc nhúng phần mềm độc hại(Malware) vào các cài đặt khác nhau.

Bên cạnh đó CNN được sử dụng rộng rãi trong các ứng dụng thị giác máy tính, điều này có thể khiến họ trở thành mục tiêu chính cho những kẻ xấu. Và cũng có rất nhiều CNN được đào tạo trước sẵn sàng được tích hợp vào các ứng dụng mà không có bất kỳ thay đổi nào và nhiều doanh nghiệp sử dụng CNN được đào tạo trước trong các ứng dụng mà không nhất thiết phải biết sâu hoạt động như thế nào.

Neural Network che giấu phần mềm độc hại(Malware) mà không bị phát hiện

Các nhà nghiên cứu lần đầu tiên thử nhúng phần mềm độc hại(Malware) vào AlexNet, một CNN phổ biến đã giúp làm mới sự quan tâm đến học sâu vào năm 2012. Các nhà nghiên cứu đã nhúng 26,8 megabyte phần mềm độc hại(Malware) vào mô hình trong khi vẫn giữ độ chính xác trong vòng 1 phần trăm của phiên bản sạch. Nếu họ tăng khối lượng dữ liệu Malware, độ chính xác sẽ bắt đầu giảm đáng kể.

4. Bảo mật đường ống học máy

Vì các trình quét phần mềm độc hại(Malware) không thể phát hiện các tải trọng độc hại được nhúng trong các mô hình học sâu(Deep Learning) nên biện pháp đối phó duy nhất chống lại là tiêu diệt phần mềm độc hại.

Trọng tải chỉ duy trì tính toàn vẹn của nó nếu các byte của nó vẫn còn nguyên vẹn. Do đó, nếu người nhận Neural Network mà không đóng băng lớp bị nhiễm, các giá trị tham số của nó sẽ thay đổi và dữ liệu phần mềm độc hại(Malware) sẽ bị phá hủy. Ngay cả một kỷ nguyên đào tạo cũng có thể đủ để tiêu diệt bất kỳ phần mềm độc hại(Malware) nào được nhúng trong mô hình Deep Learning.

Tuy nhiên, hầu hết các nhà phát triển đều sử dụng các mô hình được đào tạo từ trước, trừ khi họ muốn chỉnh chúng cho một ứng dụng khác. Điều này có nghĩa là bên cạnh các cuộc nhiễm độc dữ liệu, các vấn đề bảo mật khác thì Neural Network bị nhiễm phần mềm độc hại là mối đe dọa thực sự đối với tương lai của Deep Learning.

Doanh nghiệp cần thiết lập chuỗi tin cậy trong các đường ống học máy

Doanh nghiệp cần thiết lập chuỗi tin cậy trong các đường ống học máy 

Các doanh nghiệp cần thiết lập một chuỗi tin cậy trong các đường ống học máy dù biết rằng  máy quét phần mềm độc hại(Malware) và các công cụ phân tích tĩnh không thể phát hiện ra các mô hình bị nhiễm. Bên cạnh đó cần phải đảm bảo các mô hình của bạn đến từ các nguồn đáng tin cậy và nguồn gốc của dữ liệu đào tạo và các thông số đã học không bị xâm phạm.

Bài viết này đã cho bạn nhận thấy mối đe dọa của Neural Network có thể che dấu được phần mềm độc hại(Malware). Cần phải có sự cần thận. Mắt Bão chuyên cung cấp những tin tức mới về công nghệ. Nếu bạn muốn tăng cường bảo mật cho doanh nghiệp thì liên hệ ngay đến Mắt Bão.






Bài viết liên quan