NGĂN CHẶN TÌNH TRẠNG LỪA ĐẢO QUA KHÔNG GIAN MẠNG - BÀI 2: HIỂM HỌA TỪ AI

 

Lừa đảo trực tuyến đang trở nên tinh vi hơn khi tội phạm mạng sử dụng trí tuệ nhân tạo (AI). Đã có nhiều người dùng mạng xã hội bị các đối tượng lừa đảo bằng những hình ảnh, video được tạo từ Deepfake, Deepvoice-là những công nghệ ứng dụng AI để tạo hình ảnh, video âm thanh giả mạo giống như thật khiến người dùng khó phân biệt...


Cuộc gọi thật nhưng người quen là giả


Đầu tháng 9-2024, khi đang làm việc tại cơ quan, anh Lê Mạnh Cường ở 71 Nguyễn Chí Thanh, Đống Đa (Hà Nội) nhận được tin nhắn của người bạn thân qua Facebook, hỏi mượn số tiền 100 triệu đồng. Dù đã cẩn thận xác minh lại, thế nhưng anh Cường vẫn bị lừa. “Ngay sau khi nhận tin nhắn, tôi đã gọi video lại cho bạn. Phía bên kia bắt máy, trên màn hình hiện lên khuôn mặt của bạn tôi nhưng chất lượng cuộc gọi hơi thấp, âm thanh rất khó nghe, hình ảnh nhòe mờ. Trước đó, tôi và bạn đã nhiều lần nói chuyện về việc mua xe ô tô. Vì vậy, khi nghe bạn hỏi mượn tiền mua xe, tôi đã không ngần ngại chuyển cho bạn 100 triệu đồng. Các đối tượng đã đọc rất kỹ những tin nhắn cũ của tôi và bạn để có kịch bản lừa đảo hợp lý...”, anh Cường chia sẻ.


Tình trạng lừa đảo qua các ứng dụng Zalo, Facebook, Skype, Telegram... đã trở nên phổ biến trong những năm gần đây. Ban đầu, đối tượng đánh cắp tài khoản cá nhân để lừa đảo thông qua việc nhắn tin vay tiền. Sau một thời gian, nhận thấy hoạt động này kém hiệu quả do bị "bắt bài", tội phạm công nghệ cao đã "nâng cấp" lên một mức độ mới, tinh vi hơn, đó là kết hợp giữa chiếm đoạt tài khoản cá nhân và sử dụng Deepfake để thực hiện cuộc gọi hình ảnh. Nhìn thấy người thân, bạn bè đang nói chuyện với mình, nhiều người không nghĩ rằng đây chỉ là ảo ảnh do công nghệ tạo ra và việc bị lừa là khó tránh khỏi. 


Trao đổi với chúng tôi, chuyên gia công nghệ thông tin Hoàng Mạnh Hưng, Công ty Vega Corporation cho biết: “Các đối tượng lừa đảo tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video được đăng tải công khai trên những nền tảng mạng xã hội rồi sử dụng Deepfake để tạo ra giọng nói, khuôn mặt, video giả. Điều đáng nói, video sẽ càng chân thực, hoàn thiện hơn khi các đối tượng thu thập được càng nhiều dữ liệu về hình dạng, giọng nói. Đặc điểm chung của các cuộc gọi video lừa đảo là thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như trong khu vực sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Khi người nhận điện thoại gọi lại để kiểm tra, các đối tượng không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, giọng nói nhằm tiếp tục đánh lừa”. 


Sự phát triển nhanh chóng của AI tạo ra những nguy cơ đáng kể cho an ninh mạng. Thách thức lớn nhất là lừa đảo và tấn công có chủ đích, với mức độ ngày càng phức tạp. “Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo sẽ khó khăn hơn đối với người dùng. Tại Việt Nam, mặc dù các cơ quan chức năng đã triển khai nhiều giải pháp nhưng việc ứng dụng AI để tạo ra các kịch bản và tổ chức lừa đảo trên mạng xã hội vẫn khá phổ biến nên nhiều người dân đã bị lừa”, ông Hoàng Mạnh Hưng chia sẻ thêm.



Trao đổi với chúng tôi, Thiếu tá Phí Văn Thanh, Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (Bộ Công an) cho biết: “Khả năng nhận diện và phòng, chống các hình thức lừa đảo trực tuyến ngày càng khó khăn, khi các đối tượng ứng dụng AI để tạo ra kịch bản, bằng chứng, minh chứng để lừa người dùng. Trên thực tế, chiêu thức lừa đảo bằng công nghệ AI thực sự rất nguy hiểm, một cuộc điện thoại, một video có khuôn mặt và giọng nói y hệt người thân sẽ khiến nạn nhân mất cảnh giác. Hoặc việc giả danh cán bộ công an mặc quân phục, thao túng tâm lý cũng khiến nạn nhân sợ sệt, lo lắng dẫn đến nhanh chóng làm theo yêu cầu của bọn lừa đảo”. Tuy nhiên, Deepfake chưa đạt đến mức độ hoàn hảo. Theo các chuyên gia, các cuộc gọi Deepfake vẫn có một số dấu hiệu để nhận biết như: Thời gian gọi thường rất ngắn, chỉ vài giây. Khuôn mặt của người trong video thiếu cảm xúc, khuôn miệng và âm thanh phát ra không khớp...


Nỗi lo Deepfake qua mặt sinh trắc học ngân hàng


Theo quy định tại Quyết định số 2345/QĐ-NHNN của Thống đốc Ngân hàng Nhà nước Việt Nam, từ ngày 1-7-2024, khách hàng muốn giao dịch chuyển khoản trên 10 triệu đồng hoặc lũy kế trên 20 triệu đồng/ngày cần phải xác thực sinh trắc học trên ứng dụng của ngân hàng. Tuy nhiên, đã ghi nhận có trường hợp “lừa” được các app ngân hàng ở bước xác thực chuyển tiền bằng một tấm ảnh chụp tĩnh. Đại diện Ngân hàng Nhà nước Việt Nam cho biết, có tình trạng một số app ngân hàng bị đánh lừa bởi ảnh tĩnh, Deepfake là do tắt hệ thống xác thực này để bảo đảm giao dịch thông suốt trong những ngày đầu lưu lượng tăng đột biến. Ngân hàng Nhà nước Việt Nam đã yêu cầu các ngân hàng thực hiện nghiêm túc giải pháp xác thực định danh khách hàng trực tuyến, phải có chức năng chống giả mạo Deepfake và ảnh tĩnh. Hiện, tình trạng dùng ảnh tĩnh để vượt qua hệ thống sinh trắc học đã được khắc phục. Ngân hàng Nhà nước Việt Nam vẫn liên tục cùng với nhà cung cấp dịch vụ sinh trắc học nghiên cứu, cập nhật thêm các giải pháp ngăn chặn việc tội phạm dùng Deepfake giả mạo sinh trắc học lừa đảo. Ngoài việc người dùng nhìn thẳng như hiện nay, có thể sẽ phải quay trái, quay phải để tránh giả mạo sinh trắc.


Trung tá Triệu Mạnh Tùng, Phó cục trưởng Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao cho biết, biện pháp sử dụng sinh trắc học hiện nay là tiên tiến nhất và Việt Nam là một trong những quốc gia thực hiện biện pháp này. Tuy nhiên, vẫn có một vài rủi ro phải đối mặt như việc sử dụng công nghệ Deepfake để vượt qua các biện pháp kỹ thuật của ngân hàng nhằm xác thực sinh trắc học. Với sự bùng nổ của các ứng dụng mạng xã hội như hiện nay, kẻ xấu không khó để thu thập hình ảnh của một người rồi tạo ra các bản sao giả mạo với đầy đủ đặc điểm sinh trắc học cá nhân để qua mặt hệ thống ngân hàng. Một vài bức ảnh trên mạng xã hội với những góc chụp khác nhau là đủ để hacker bắt đầu dựng một mô hình gương mặt ảo... Điều này đòi hỏi các cơ quan chức năng luôn phải nghiên cứu, cập nhật những giải pháp kỹ thuật mới.../.


QĐND