AI VỚI CÔNG NGHỆ DEEPFAKE ĐANG THAY ĐỔI CẢ CHIẾC CHUYỆN GIẢ MẠO MÀ KHÓ AI NHẬN RA

SỬ DỤNG HÌNH ẢNH GIẢ CHUYỂN TIỀN TRÒ CHOI NGHIỆM TRỌNG TRONG THOÁI LOẠN TÀI CHÍNH

Cảnh báo từ các cơ quan công an cho thấy công nghệ Deepfake ngày càng trở thành vũ khí lợi dụng hiểm họa trong các vụ lừa đảo qua mạng xã hội. Công nghệ này mô phỏng hình ảnh khuôn mặt con người bằng AI tinh vi, giúp các đối tượng gian lận tạo ra các sản phẩm âm thanh, hình ảnh hoặc video giả mạo hoàn chỉnh. Thật không thể tin nổi, những hình ảnh này có thể qua mặt cả các hệ thống sinh trắc học hiện đại, gây ra những hậu quả nghiêm trọng cho người dùng và hệ thống tài chính.

Các thủ đoạn lừa đảo sử dụng Deepfake ngày càng tinh vi

Các đối tượng lừa đảo tận dụng công nghệ Deepfake để giả mạo khuôn mặt và giọng nói của chủ tài khoản, sau đó dùng các tài khoản mạng xã hội đã bị chiếm đoạt để dụ dỗ nạn nhân chuyển tiền. Theo thống kê của Hiệp hội Kế toán pháp lý toàn cầu, các sự cố liên quan đến Deepfake đã tăng gấp 10 lần từ năm 2023 đến 2025, tăng hơn 900%. Thiệt hại về tài chính dự kiến của AI thúc đẩy lừa đảo vào năm 2027 lên tới 40 tỷ USD, theo dự báo của Deloitte. Điều đáng nói, các băng nhóm tội phạm còn tạo dựng mạng lưới chân rết để thu mua, thuê mở tài khoản ngân hàng, rồi dùng video khuôn mặt giả mạo để hack sinh trắc học, rồi chuyển tiền đi của các hoạt động phi pháp.

Các ngân hàng và tổ chức tài chính còn gặp khó khăn trong việc phòng chống

Trong những ngày đầu áp dụng sinh trắc khuôn mặt cho các giao dịch chuyển khoản từ 10 triệu đồng trở lên, nhiều ngân hàng đã tạm thời tắt chức năng xác thực bằng Deepfake để đảm bảo giao dịch liên tục. Khi họ cập nhật và thực hiện đúng quy trình xác thực định danh trực tuyến, khả năng sử dụng ảnh tĩnh hoặc hình ảnh giả để qua mặt hệ thống đã giảm thiểu. Tuy nhiên, các hệ thống sinh trắc học hiện tại vẫn còn tồn tại một số lỗ hổng, đặc biệt khi đối mặt với các công cụ AI ngày càng tinh vi hơn. Ông Võ Đỗ Thắng, Giám đốc Trung tâm đào tạo an ninh mạng Athena, nhận định rằng các giải pháp bảo mật sinh trắc học phải liên tục được cập nhật để đảm bảo hạn chế tối đa các rủi ro.

Giải pháp và cảnh báo từ chuyên gia

Chuyên gia công nghệ nhấn mạnh rằng nhận diện hình ảnh, khuôn mặt đóng vai trò quan trọng trong các lĩnh vực như an ninh đô thị hay an toàn giao thông. Tuy nhiên, sự phát triển chóng mặt của công nghệ khiến các đối tượng lừa đảo có thể tạo ra danh tính ảo, đánh cắp thông tin cá nhân rồi sử dụng để xây dựng nhân dạng giả mạo hoàn toàn không tồn tại, nhằm thực hiện hành vi phạm pháp. Một số công cụ phát hiện hình ảnh AI tạo ra còn gặp hạn chế, đặc biệt trong việc phân biệt video giả hay ảnh tĩnh giả mạo của các cá nhân không nổi tiếng.

Theo ông Võ Đỗ Thắng, hiện nay một số giải pháp xác thực danh tính, như sinh trắc học, vẫn chưa đủ mạnh để chống lại các cuộc tấn công bằng Deepfake chất lượng cao. Ông nhấn mạnh rằng các tổ chức, doanh nghiệp cần rà soát thường xuyên quy trình bảo mật, nâng cao các lớp kiểm tra chống giả mạo như liveness detection để phát hiện các trạng thái giả mạo.

Cần hành động chủ động của cả hệ thống lẫn người dùng

Chuyên gia an ninh mạng Ngô Minh Hiếu, Giám đốc Dự án Chongluadao.vn, cảnh báo rằng công nghệ giả mạo khuôn mặt và giọng nói đã đủ tinh vi để vượt qua các lớp xác thực sinh trắc học cơ bản. Nhiều ngân hàng và nền tảng trực tuyến còn thiếu các lớp kiểm tra chống giả mạo như phát hiện deepfake hoặc xác thực liveness, dẫn đến nguy cơ bị tấn công qua các hình thức này. Ông khuyên rằng, để phòng tránh tối đa, người dùng cần xác minh nhiều kênh khi nhận yêu cầu chuyển tiền, tránh chia sẻ thông tin cá nhân, mật khẩu hoặc mã OTP không rõ nguồn gốc. Đồng thời, các ngân hàng cần nâng cấp hệ thống xác thực đa lớp, kết hợp AI chống deepfake, tăng cường cảnh báo rủi ro cho khách hàng.

Chung quy, lĩnh vực an ninh tài chính và công nghệ xác thực sinh trắc học đang đứng trước thử thách lớn, yêu cầu cả bên cung cấp dịch vụ lẫn người dùng đều phải chủ động cập nhật, nâng cao cảnh giác để đối phó với thủ đoạn sử dụng hình ảnh giả, Deepfake để lừa đảo, trộm cắp tài sản. Công nghệ đang giúp xây dựng một xã hội an toàn hơn, nhưng cũng chính nó đang bị lợi dụng để phạm pháp ngày càng tinh vi và phức tạp hơn.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *