Ngày 10-4, Công an TP Huế, tỉnh Thừa Thiên – Huế cho biết đang vào cuộc, tích cực điều tra làm rõ vụ việc có dấu hiệu sử dụng không gian mạng để lừa đảo, chiếm đoạt tài sản. Vào đầu tháng 4-2023, đơn vị này tiếp nhận đơn trình báo của một bị hại trú tại TP Huế về việc bị lừa 380 triệu đồng.
Theo trình báo, khi người này đang nghỉ trưa thì nhận được cuộc gọi hình ảnh của cháu gái đang sống tại Mỹ với giọng thảng thốt: "Cho cháu mượn gấp 20 triệu đồng vì có đứa cháu bên chồng vừa nhập viện, bác sĩ yêu cầu phải mổ tim cấp cứu. Dì gửi cho cháu mượn rồi cháu sẽ gửi về trả vì hôm nay là ngày chủ nhật không gửi được tiền".
Bị can Nguyễn Nhật Tân (phải) bị Công an TP Huế bắt giữ vì có hành vi giả giọng nói, hình ảnh để gọi điện lừa đảo 8 bị hại.
Sau khi nhận được số tài khoản "người cháu" gửi, bị hại không chút nghi ngờ liền chuyển 20 triệu đồng. Không dừng lại ở đó, chỉ trong vòng chưa đầy 3 giờ, "người cháu" nhiều lần gọi điện về cho bị hại mượn thêm 360 triệu đồng vì bệnh viện yêu cầu phải đóng thêm viện phí mới thực hiện được ca mổ, tính mạng cháu bé đang nguy kịch. Tổng cộng nạn nhân đã vay mượn rồi chuyển 380 triệu đồng cho "người cháu" mượn.
Nhiều ngày trôi qua không thấy cháu hoàn trả tiền, nạn nhân nhắn tin hỏi thăm thì người cháu tỏ ra bất ngờ vì không hề có đứa cháu nào nhập viện cấp cứu cả. Lúc này, bị hại mới biết là mình đã bị lừa.
Theo cơ quan công an, đây không phải là trường hợp duy nhất trên địa bàn bị lừa đảo chiếm đoạt tài sản bằng giọng nói, hình ảnh. Mới đây, chị H.T.V. cũng bị lừa 29 triệu đồng sau khi nhận cuộc gọi hình ảnh từ một cô bạn thân với lý do cần tiền gấp để nộp cho con nhập viện cấp cứu. Chị N.T.H.A. cũng bị chiếm đoạt 16 triệu đồng sau khi nhận được cuộc gọi từ một đồng nghiệp mượn tiền với lời hứa ngày mai sẽ chuyển lại…
Phòng An ninh mạng và phòng chống tội phạm sử dụng công nghệ cao Công an tỉnh Thừa Thiên - Huế cho biết, các đối tượng đã sử dụng chiêu lừa đảo tinh vi hơn để vay tiền thông qua hình thức giả cuộc gọi video. Các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.
Các đối tượng lừa đảo sử dụng thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu… Những cuộc gọi video này thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn.
Vì sao lại giả được hình ảnh của người thân?
Thuật ngữ "Deepfake" là sự kết hợp giữa "deep learning" và "fake". Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ công nghệ AI (trí tuệ nhân tạo) và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực mà khó có thể nhận ra.
Bình luận (0)