|
 Thuật ngữ VietnamBiz
Tài chính

Đừng vội tin các cuộc gọi video hỏi vay tiền, đó có thể là video mạo danh Deepfake

11:00 | 07/05/2023
Chia sẻ
Nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, kể cả xác nhận qua video call là lời cảnh báo được các ngân hàng và cơ quan chức năng liên tục đưa ra gần đây.

Lừa đảo bằng công nghệ Deepfake. Ảnh minh họa: Công an Tuyên Quang

Bởi nắm bắt được tâm lý người dùng mạng xã hội cảnh giác hơn với các thủ đoạn nhắn tin nhờ chuyển tiền, tội phạm công nghệ cao hiện nay đã lợi dụng phần mềm ghép mặt và giọng nói (Deepfake AI) giống hệt người quen của nạn nhân để tạo ra những video giả mạo nhằm thực hiện hành vi lừa đảo.

 

 

Theo Ngân hàng TMCP Việt Nam Thịnh Vượng (VPBank), kẻ gian thường chiếm đoạt tài khoản Zalo, Facebook hoặc tạo tài khoản giống hệt người thân của nạn nhân, tiếp đó thu thập hình ảnh, giọng nói và dùng công nghệ Deepfake tạo ra video giả mạo.

Sau đó, chúng sẽ dùng tài khoản giả hoặc các tài khoản mạng xã hội chiếm được để nhắn tin mượn tiền hoặc nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm cần tiền gấp...

Chiêu thức này tuy không mới nhưng đã trở nên tinh vi hơn khi kẻ gian đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin cho tài khoản giả, tăng độ tin cậy để thực hiện trót lọt hành vi lừa đảo. Các video này có thể khiến người xem tin rằng họ đang nhìn thấy và nghe thấy người thật đang nói chuyện.

VPBank cảnh báo video giả mạo có độ tương đồng tương đối cao so với dung mạo của người bị giả mạo, do đó rất khó phân biệt thật giả. Để nhận biết video ứng dụng Deepfake, người dùng có thể dựa vào các yếu tố như đó có phải là video dựng sẵn hay không, nội dung trả lời có trực tiếp vào câu hỏi không hay nội dung chung chung, không phù hợp với ngữ cảnh thực tế giao tiếp.

Tuy nhiên để che lấp những khuyết điểm có thể dễ phát hiện trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét, giống như một cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực sóng di động hoặc wifi yếu...

Deepfake AI được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video, mà vẫn đảm bảo hoạt động giống như được quay thực tế. Nhưng hiện nay, ngoài mục đích giải trí như trên, các đối tượng tội phạm đã lợi dụng công nghệ này để tạo ra video giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo hoặc lan truyền tin giả, tin thất thiệt trên mạng.

Việc sử dụng công nghệ Deepfake để lừa đảo được dự báo có thể gia tăng trong thời gian tới. Và với các vụ lừa đảo thông qua video ứng dụng Deepfake, việc người dùng chứng minh với ngân hàng mình bị lừa là rất phức tạp, mất nhiều thời gian và đòi hỏi sự tham gia của nhiều bên như nhà mạng hoặc công an.

Do đó, người dùng cũng nên tìm hiểu về công nghệ này để nhận biết được các đặc điểm nhằm phân biệt giữa video và hình ảnh thật và giả mạo. Cụ thể, các video giả mạo thường thời lượng ngắn, hình ảnh nhòe, chuyển động giật cục, khuôn mặt ít biểu cảm, khẩu hình miệng không đồng bộ với lời nói, cơ thể ít di chuyển, âm thanh khó nghe, giọng nói không trơn tru, không ngắt nghỉ…

Để tránh trở thành nạn nhân của công nghệ Deepfake, VPBank khuyến cáo người dùng thiết bị công nghệ cao và các ứng dụng công nghệ hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân trên mạng xã hội.

Đặc biệt nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, phải chú ý kiểm tra kỹ thông tin tài khoản nhận tiền, gọi vào số điện thoại mà mình biết để xác minh với người thân trước khi chuyển tiền.

Nếu nghi ngờ hoặc là nạn nhân bị lừa đảo bởi công nghệ Deepfake, người sử dụng cần thông báo ngay lập tức cho những người người thân quen biết để hạn chế tối đa thiệt hại. Đồng thời, ngay lập tức báo với cơ quan công an gần nhất, đường dây nóng ngân hàng hoặc phòng giao dịch ngân hàng gần nhất để được hỗ trợ.

Ngoài ra, theo Trung tâm Giám sát An toàn không gian mạng quốc gia (NCSC) – Cục An toàn thông tin (Bộ Thông tin và Truyền thông), nếu chia sẻ video hay clip trên mạng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật.

Trong trường hợp bị làm giả thông tin, hình ảnh, video, người dùng nên thông báo ngay lập tức cho mọi người biết và báo lên cơ quan chức năng tại canhbao.ncsc.gov.vn hay báo lên dự án chongluadao tại địa chỉ https://chongluadao.vn.

NCSC cũng cung cấp các thông tin nhằm nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.

Lê Phương