Phòng rủi ro dùng công nghệ cao
Xây dựng đề án ứng dụng công nghệ cao cần phải đi kèm với kế hoạch bảo đảm an toàn
Các chuyên gia quốc tế khuyến cáo khi ứng dụng công nghệ cao vào bất kỳ lĩnh vực nào (y tế, giáo dục, nông nghiệp, quốc phòng, sản xuất...), cần đề phòng những rủi ro để bảo đảm an toàn, hiệu quả và bền vững.
AI cũng có thể sai sót
Thế giới đang sống trong kỷ nguyên công nghệ cao và việc tăng cường ứng dụng vào mọi lĩnh vực đời sống xã hội là yêu cầu sống còn. Vì vậy, cần tiến hành song song cả việc triển khai công nghệ cao lẫn các giải pháp phòng tránh những bất trắc có thể xảy ra. Đặc biệt là khi ứng dụng công nghệ trí tuệ nhân tạo (AI), đòi hỏi phải có những giải pháp an toàn đặc biệt tương ứng. Từ sự cố hàng loạt thiết bị drone bất ngờ rơi trong một sự kiện gần đây một lần nữa cho thấy những bất trắc có thể gặp phải khi ứng dụng công nghệ trong cuộc sống.
ZenGRC lưu ý rủi ro công nghệ thường xảy ra như tấn công mạng, ngừng dịch vụ hoặc thiết bị lỗi thời, có thể làm gián đoạn hoạt động kinh doanh. Nếu không được quản lý đúng cách, những rủi ro này có thể dẫn đến tổn thất tài chính, danh tiếng, thậm chí phải chịu hình phạt theo pháp luật. Chẳng hạn những rủi ro về an ninh - bảo mật, nguy cơ bị tấn công mạng, hệ thống bị tin tặc xâm nhập, đánh cắp dữ liệu hoặc phá hoại. Phổ biến là bị rò rỉ thông tin cá nhân nhạy cảm do lỗi kỹ thuật, quản lý yếu kém hoặc nhân sự vô tình hay cố ý.
Thời gian gần đây, AI được phát triển mạnh, ứng dụng trong nhiều lĩnh vực nhưng cũng chỉ là một công cụ và hoàn toàn có thể bị sai sót. Ngay chính ứng dụng ChatGPT của OpenAI, từ khi ra mắt vào cuối tháng 11-2022 tới nay vẫn được coi là AI chatbot thông dụng. Tuy vậy, nhà phát triển ứng dụng này cũng lưu ý người dùng với dòng cảnh báo: "ChatGPT có thể phạm sai lầm. Hãy kiểm tra lại các thông tin quan trọng". Thực tế, thời gian qua đã xảy ra không ít "quả lừa" từ công nghệ, đặc biệt là AI. Trong cơn sốt tạo ảnh bằng AI trên mạng xã hội gần đây, người ta không thể không sửng sốt trước tài năng của AI. Các ứng dụng AI tạo ảnh như thật, có thể ghép khuôn mặt từ ảnh chân dung do người dùng cung cấp vào các hình ảnh, bối cảnh mới tạo bằng AI. Đặc biệt là những ứng dụng tạo video với các hiệu ứng video ảo diệu. Phải thừa nhận rằng việc phát hiện tính giả mạo của những hình ảnh, video deepfake có sự tham gia của AI hiện nay khó hơn bội lần so với thời trước còn dùng "photoshop".
Ngay từ đầu, nhiều chuyên gia đã khuyến cáo những vấn đề về đạo đức và pháp lý là hệ lụy từ AI. AI có thể vượt ngoài kiểm soát hoặc có hành vi sai lệch, như phân biệt đối xử, thao túng tâm lý người dùng… AI tạo sinh có thể vượt qua giới hạn của một công cụ như GenAI, nó có thể tự đưa ra quyết định, hành động và thích ứng với môi trường thay đổi. Nguy cơ cao hơn là ở đây.

Sự gia tăng những người làm việc từ xa khiến các mối đe dọa bảo mật lớn hơn, tinh vi hơn Ảnh minh họa AI: ANH PHÚC
Lấp khoảng trống quản lý
Tình trạng chung của toàn cầu là thiếu khung pháp lý khi công nghệ phát triển nhanh hơn luật pháp, gây khoảng trống trong quản lý để kẻ xấu, tội phạm mạng lợi dụng.
Theo Quyết định 2345/QĐ-NHNN của Ngân hàng Nhà nước về triển khai các giải pháp an toàn, bảo mật trong thanh toán trực tuyến và thanh toán thẻ ngân hàng, từ ngày 1-7-2024, chuyển tiền qua tài khoản trực tuyến hoặc nạp tiền vào ví điện tử trên 10 triệu đồng hay thanh toán trong ngày vượt quá 20 triệu đồng phải được xác thực sinh trắc học (STH) qua khuôn mặt và vân tay. Trước đó, các ngân hàng tiến hành quy trình xác thực STH đối với khách hàng có tài khoản trên ứng dụng di động. Ngay trong ngày đầu tiên áp dụng quy định này, một số ngân hàng (trong đó có Vietcombank) đã phải lập tức phát thông báo tới khách hàng rằng đơn vị này không liên hệ và yêu cầu khách hàng cung cấp thông tin cá nhân để cập nhật thông tin STH. Ngoài ra, không gửi đường link để khách hàng cập nhật thông tin STH. Vietcombank cảnh báo mọi đường link gửi qua các phần mềm chat (SMS, Zalo, Viber, Messenger…) để cập nhật thông tin STH đều là giả mạo. Việc cập nhật xác thực STH chỉ được thao tác ngay chính trên ứng dụng ngân hàng. Sau đó đã có những "nạn nhân" bị dính bẫy của các kẻ lừa đảo sử dụng chiêu "trợ giúp" khách hàng xác thực STH. Vì vậy, cần phải có những giải pháp có công nghệ tương xứng để phòng chống.
Theo một cuộc khảo sát gần đây của Enterprise Strategy Group (ESG), các yếu tố hàng đầu khiến hoạt động và quản lý an ninh mạng trở nên khó khăn. Sự gia tăng những người làm việc từ xa; các mối đe dọa lớn hơn, tinh vi hơn và có nhiều thiết bị IoT và ứng dụng đám mây hơn. Trước việc bọn tội phạm công nghệ ngày càng tinh vi và "cao tay nghề", các nhà cung cấp dịch vụ bảo mật, an toàn thông tin trên toàn cầu đã chuyển qua giải pháp Zero Trust (tạm dịch: Không thể tin ai được). Hãng an ninh bảo mật đa quốc gia Fortinet (Mỹ) trong những tháng đầu năm 2025 đã đưa ra các cải tiến mới cho giải pháp an ninh bảo mật tập trung vào chính công nghệ vận hành (OT). Các hãng sản xuất thiết bị trên thế giới giờ đây triển khai các biện pháp an ninh bảo mật kết hợp phần mềm lẫn phần cứng. Các thuật toán an ninh bảo mật hoạt động ngay với con chip bảo mật được tích hợp trên thiết bị.
Trong bối cảnh Việt Nam đang tăng tốc ứng dụng công nghệ cao, chuyển đổi số toàn diện trên quy mô toàn quốc, công tác bảo đảm cho công nghệ cao vận hành an toàn và chính xác phải được coi trọng, triển khai song song với ứng dụng công nghệ. Công tác này cần có sự tổng chỉ đạo thống nhất từ cấp trung ương. Chẳng hạn, bất cứ tổ chức nào xây dựng đề án ứng dụng công nghệ cao cũng phải đi kèm với kế hoạch bảo đảm an toàn và hiệu quả cao nhất có thể.
Tránh phụ thuộc vào hệ thống tự động
Theo các chuyên gia bảo mật, các tổ chức cần tránh bị phụ thuộc hoàn toàn vào hệ thống tự động, vì nếu bị lỗi hoặc bị chiếm quyền điều khiển, hậu quả có thể nghiêm trọng. Nguy cơ tê liệt hoạt động nếu công nghệ phát sinh lỗi mà không có kế hoạch dự phòng.