Sau một năm 2024 bùng nổ các ứng dụng trí tuệ nhân tạo (AI), người dùng đang phải đối mặt thách thức mới do công nghệ này mang lại. Hai vấn đề nóng hiện nay là trách nhiệm ứng dụng AI và nguy cơ an ninh mạng với sức mạnh AI.
Nhiều rủi ro
Theo các chuyên gia của Vertiv (nhà cung cấp cơ sở hạ tầng kỹ thuật số và các giải pháp quản lý toàn cầu của Mỹ), tần suất và mức độ nghiêm trọng ngày càng tăng của các cuộc tấn công bằng mã độc (ransomeware) đang đặt ra cách nhìn mới về các quy trình an ninh mạng và vai trò của cộng đồng trung tâm dữ liệu trong việc ngăn chặn các cuộc tấn công.
Theo báo cáo Verizon's 2024 Data Breach Investigations Report (DBIR), 1/3 các cuộc tấn công trong năm qua liên quan đến mã độc hoặc tống tiền dưới sự hỗ trợ của các công cụ AI. Nếu không cẩn trọng và các biện pháp phòng ngừa thích hợp thì ngay cả trung tâm dữ liệu tinh vi nhất cũng có thể trở nên vô dụng. Các chuyên gia an ninh mạng, quản trị mạng và các nhà điều hành trung tâm dữ liệu cần phải phát triển các công nghệ an ninh AI tinh vi của riêng mình. Mặc dù các nguyên tắc cơ bản và các phương pháp phòng thủ tốt nhất không thay đổi, nhưng bản chất, nguồn gốc và tần suất thay đổi của các cuộc tấn công có liên quan tới AI cũng đã làm tăng áp lực cho các nỗ lực an ninh mạng hiện đại.
Trong cuốn "Tư duy an ninh mạng", tác giả Dewayne Hart, Chủ tịch - Giám đốc điều hành Công ty An ninh mạng SEMAIS, nhấn mạnh cần có các thuật toán bảo mật mạnh mẽ để đối phó với những cuộc tấn công mạng dựa trên AI. Tác giả cuốn sách cho biết: "AI đã đưa ra những thách thức mà các thuật toán bảo mật phải có khả năng dự đoán, nhanh chóng và chính xác. Điều này định hình lại khả năng bảo vệ mạng vì các thiết bị cơ sở hạ tầng của tổ chức phải hỗ trợ những phương pháp mới, dùng AI "trị" AI.
Nền tảng an ninh mạng dựa trên AI Crowdstrike cho rằng AI đã trở thành công nghệ then chốt trong mọi hộp công cụ công nghệ thông tin của doanh nghiệp nhưng nó cũng có trong kho vũ khí của tội phạm mạng. Các cuộc tấn công mạng do AI hỗ trợ tận dụng các thuật toán và kỹ thuật AI hoặc máy học để tự động hóa, đẩy nhanh hoặc tăng cường các giai đoạn khác nhau của một cuộc tấn công. Các thuật toán được sử dụng bởi những cuộc tấn công mạng do AI hỗ trợ có thể học hỏi và phát triển theo thời gian. Cộng đồng người dùng đang "phơi mình" trước những nguy cơ lừa đảo, chiếm đoạt tài sản bằng AI. Điều này có nghĩa là các cuộc tấn công mạng do AI hỗ trợ có thể thích ứng để tránh bị phát hiện hoặc tạo ra một kiểu tấn công mà hệ thống bảo mật không thể phát hiện.
Các cuộc tấn công lừa đảo sử dụng AI tạo sinh để tạo ra các email, tin nhắn SMS, liên lạc qua điện thoại hoặc tiếp cận phương tiện truyền thông xã hội được cá nhân hóa và thực tế cao để đạt được mục đích mong muốn. Trong các trường hợp nâng cao, AI được sử dụng để tự động hóa giao tiếp thời gian thực mà kẻ xấu sử dụng trong các cuộc tấn công lừa đảo. Ví dụ: các chatbot hỗ trợ AI có thể hỗ trợ các tương tác khiến người ta gần như không thể phân biệt được chatbot với con người. Kẻ tấn công có thể sử dụng các công cụ này, được triển khai ở quy mô lớn, để cố gắng kết nối với vô số cá nhân cùng một lúc. Các chatbot này đóng vai trò là nhân viên hỗ trợ khách hàng hoặc dịch vụ để thu thập thông tin cá nhân và thông tin đăng nhập tài khoản, đặt lại mật khẩu tài khoản hoặc truy cập vào hệ thống hoặc thiết bị.
"Hung thần lừa đảo" Deepfake với những video, hình ảnh hoặc tệp âm thanh do AI tạo ra nhằm lừa dối người dùng. Ngoài mục đích giải trí và gây nhầm lẫn, Deepfake cũng có thể được sử dụng một cách chủ đích hơn như một phần của các chiến dịch thông tin sai lệch, "tin giả", các chiến dịch bôi nhọ những cá nhân có địa vị cao hoặc các cuộc tấn công mạng.
Cần khung pháp lý vững chắc
Năm 2024, Vertiv đặt tầm quan trọng về các quy định của chính phủ các nước đối với việc sử dụng năng lượng. Năm 2025, Vertiv kỳ vọng các quy định của chính phủ sẽ ngày càng chú trọng hơn đến việc giải quyết vấn đề sử dụng AI.
Chính phủ và các cơ quan quản lý nhiều nước đang gấp rút đánh giá các tác động của AI và phát triển các khung pháp lý để quản lý việc sử dụng công nghệ này. Xu hướng AI có chủ quyền - quyền kiểm soát hoặc ảnh hưởng quốc gia đối với việc phát triển, triển khai và quản lý AI cũng như các khung quy định nhằm quản lý AI - là trọng tâm của Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu (EU) và Khung quản trị an toàn AI của Trung Quốc. Đan Mạch gần đây đã khánh thành siêu máy tính AI có chủ quyền của riêng mình và nhiều quốc gia khác đã thực hiện các dự án AI có chủ quyền và quy trình lập pháp riêng của họ để củng cố các khung pháp lý về việc ứng dụng. Phổ biến là chính phủ các nước sẽ đưa ra một số hình thức hướng dẫn, thậm chí có thể đặt ra những hạn chế theo hướng ứng dụng AI có trách nhiệm; bao gồm các quy định quản lý cơ sở hạ tầng phần cứng và phần mềm, các chính sách về nhân sự và bảo mật được sử dụng để vận hành các công nghệ AI.
Việt Nam cũng đang trong cơn lốc xoáy AI. Theo một chuyên gia về AI, bên cạnh các lớp dạy về việc ứng dụng AI cho cuộc sống, có không ít những chương trình hướng dẫn cách tạo ra các ứng dụng, huấn luyện AI phục vụ mục đích riêng. Vì vậy, rất cần định hướng và hành lang pháp lý để bảo đảm tận dụng tối đa sức mạnh của AI một cách hữu ích và an toàn.
Bảo đảm an toàn cho người dùng
Năm 2024, Bộ Khoa học và Công nghệ đã ban hành tài liệu hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm bảo đảm lợi ích người dùng các hệ thống AI. Đây là lần đầu tiên Việt Nam có hướng dẫn của nhà nước về AI có trách nhiệm nhằm thúc đẩy việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng AI một cách an toàn và có trách nhiệm, hạn chế tối đa các ảnh hưởng tiêu cực cho người dùng và cộng đồng.
Bình luận (0)