Rủi ro đạo đức gia tăng khi phần mềm độc hại do AI tạo ra vượt qua Microsoft Defender

Chỉnh sửa bởi: Veronika Radoslavskaya

Nghiên cứu gần đây cho thấy phần mềm độc hại do AI tạo ra có khả năng vượt qua các biện pháp bảo vệ của Microsoft Defender, làm dấy lên những lo ngại sâu sắc về đạo đức trong bối cảnh an ninh mạng. Sự phát triển này đặt ra những câu hỏi quan trọng về trách nhiệm của các nhà phát triển AI, những tác động tiềm tàng đối với xã hội và sự cần thiết của các khuôn khổ pháp lý mạnh mẽ để điều chỉnh việc sử dụng AI trong an ninh mạng. Một nghiên cứu được thực hiện bởi Kyle Avery của Outflank cho thấy rằng một mô hình ngôn ngữ lớn (LLM) nguồn mở có thể được đào tạo để tạo ra phần mềm độc hại có thể vượt qua phần mềm bảo mật trong khoảng 8% các thử nghiệm. Quá trình này, tiêu tốn dưới 1.600 đô la và mất ba tháng, sử dụng học tăng cường để tinh chỉnh hiệu quả của AI. Theo Forbes, Microsoft đã cảnh báo rằng những kẻ tấn công có thể đang chiếm đoạt một số công cụ AI mạnh mẽ nhất hiện có để cung cấp năng lượng cho các chiến dịch của chúng. Điều này bao gồm việc sử dụng các công cụ AI để tạo các chiến dịch lừa đảo độc hại, với nội dung và giọng điệu được điều chỉnh cho từng mục tiêu dựa trên các thuộc tính của người mà chúng cho là đến từ đó, thông qua việc thu thập thông tin trên mạng xã hội và các nguồn khác. Sự gia tăng của phần mềm độc hại do AI tạo ra đặt ra một loạt các vấn đề đạo đức phức tạp. Đầu tiên, nó làm dấy lên câu hỏi về trách nhiệm của các nhà phát triển AI. Nếu một mô hình AI được sử dụng để tạo ra phần mềm độc hại gây ra thiệt hại đáng kể, thì ai phải chịu trách nhiệm? Các nhà phát triển AI, những người đã tạo ra mô hình, hay những kẻ tấn công đã sử dụng nó cho các mục đích độc hại? Thứ hai, việc sử dụng AI trong an ninh mạng có thể có những tác động xã hội sâu rộng. Khi phần mềm độc hại do AI tạo ra trở nên tinh vi hơn, nó có thể gây khó khăn hơn cho các tổ chức và cá nhân trong việc tự bảo vệ mình khỏi các cuộc tấn công mạng. Điều này có thể dẫn đến sự gia tăng các vụ vi phạm dữ liệu, đánh cắp danh tính và các loại tội phạm mạng khác. Thứ ba, sự phát triển của phần mềm độc hại do AI tạo ra làm nổi bật sự cần thiết của các khuôn khổ pháp lý mạnh mẽ để điều chỉnh việc sử dụng AI trong an ninh mạng. Các khuôn khổ này nên giải quyết các vấn đề như trách nhiệm pháp lý, trách nhiệm giải trình và minh bạch. Chúng cũng nên cung cấp các biện pháp bảo vệ để ngăn chặn việc sử dụng AI cho các mục đích độc hại. Tóm lại, sự trỗi dậy của phần mềm độc hại do AI tạo ra là một vấn đề đạo đức nghiêm trọng đòi hỏi sự chú ý ngay lập tức. Khi AI tiếp tục phát triển, điều quan trọng là phải giải quyết các vấn đề đạo đức liên quan đến việc sử dụng nó trong an ninh mạng và phát triển các khuôn khổ pháp lý mạnh mẽ để điều chỉnh việc sử dụng nó.

Nguồn

  • TechPulse

  • AI malware kan nu Microsoft Defender omzeilen: open-source LLM overtreft tool in ongeveer 8% van de gevallen na drie maanden training

  • AI safety shifts

  • Microsoft's Smart App Control blokkeert malware en heeft 'lichtere impact op de prestaties van uw pc'

  • Defendnot-tool gepresenteerd als 'een nog grappigere manier' om Windows Defender uit te schakelen

Bạn có phát hiện lỗi hoặc sai sót không?

Chúng tôi sẽ xem xét ý kiến của bạn càng sớm càng tốt.