|
 Thuật ngữ VietnamBiz
Kinh doanh

Dùng deepfake ghép mặt, giả giọng nói để lừa đảo

11:37 | 29/03/2023
Chia sẻ
Kẻ gian dễ dàng thực hiện cuộc gọi video với hình ảnh và giọng nói y chang "chính chủ" khiến nạn nhân "sập bẫy", qua việc sử dụng công nghệ trí tuệ nhân tạo.

Cách thức hoạt động của deepfake

Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI) để lấy hình ảnh, giọng nói của một người ghép vào video của người khác.

Khác với cách gọi video call mạo danh trước đây, những kẻ lừa đảo dễ dàng thực hiện hành vi của mình bằng cách dùng video, hình ảnh cũ của người dùng, sau đó sử dụng công nghệ deepfake để tạo hẳn một video với đầy đủ hình ảnh chuyển động (cử động nhẹ khuôn mặt và miệng), kèm giọng nói rất giống người thân của nạn nhân để lừa đảo.

Hình ảnh do deepfake tạo ra (phải) trông rất giống người thật. (Ảnh: Lemonde.fr)

Trường hợp chị V.T.M. (trú tại Q.Long Biên, Hà Nội) nhận được tin nhắn mượn 75 triệu đồng từ tài khoản Facebook của người thân đang sinh sống ở nước ngoài. Chị M. sau đó gọi video call để xác nhận khuôn mặt và ngữ điệu của người mượn tiền. Khi không còn thấy nghi ngờ, chị nhanh chóng gửi tiền mà không biết rằng, mình đã bị lừa bởi chiêu thức sử dụng công nghệ deepfake, Công an nhân dân đưa tin.

Điều đáng chú ý trong vụ việc là dù hình ảnh video có chất lượng khá kém, âm thanh bị rè cùng độ phân giải thấp giống cuộc gọi trong vùng phủ sóng yếu – khiến nạn nhân khó phân biệt thật giả, song ngữ điệu, giọng nói đến cách xưng hô đều được kẻ gian nắm rõ. Kẻ gian đã mô phỏng chính xác đến mức nạn nhân dù là người thân trong gia đình cũng dễ dàng bị mắc bẫy.

Nhận biết thế nào?

Năm 2018, các nhà nghiên cứu Mỹ đã phát hiện khuôn mặt do deepfake tạo ra sẽ không thể chớp mắt bình thường. Thực tế cho thấy, phần lớn các hình ảnh được sử dụng đều ở trạng thái đang mở mắt do các thuật toán AI không có nhiều thông tin về hành động chớp mắt của con người, theo The Guardian.

Thời điểm đó, đây là một trong những đặc điểm quan trọng để nhận diện hình ảnh giả do deepfake tạo ra. Tuy nhiên sau khi công bố trên được đưa ra, điểm yếu của deepfake đã được khắc phục khi hình ảnh trong các video deepfake đã có thể chớp mắt.

Dù vậy, người dùng có thể lưu ý về việc các video từ AI với công nghệ deepfake sẽ có chất lượng kém, hoạt động cơ mặt không tốt hoặc có màu da loang lổ.

Ngoài ra, có thể có hiện tượng nhấp nháy xung quanh các cạnh của khuôn mặt; các chi tiết nhỏ như tóc sẽ khó hiển thị tốt, dễ mất các sợi ở rìa. Đồ trang sức và răng, cũng như các hiệu ứng ánh sáng do deepfake làm ra sẽ cho cảm giác rất “giả”, chẳng hạn như ánh sáng và phản xạ không nhất quán trên mống mắt.

Cần nâng cao cảnh giác

Trước đó, dù đã được cơ quan chức năng cảnh báo về cách thức lừa đảo qua mạng xã hội, nhưng nhiều nạn nhân không ngờ đến việc gọi video xác thực người nhà là cách an toàn nhất, nay cũng bị làm giả.

Người dùng cần quan sát kỹ các chi tiết trong video để nhận ra điểm khác biệt. Thông thường, chất lượng của các cuộc gọi sử dụng deepfake sẽ không ổn định, giật lag, hình ảnh và âm thanh không rõ ràng, trong khi các đường nét trên gương mặt cho cảm giác “không thật”…

Công an các địa phương liên tục khuyến cáo người dân, khi nhận bất kỳ tin nhắn vay mượn tiền thông qua mạng xã hội, cần gọi điện trực tiếp cho người thân để xác minh, đồng thời xác thực lại chủ nhân của số tài khoản. Nếu nghi vấn đối tượng giả mạo người thân để lừa đảo trên mạng xã hội, cần báo ngay cho lực lượng chức năng để được hỗ trợ, xử lý kịp thời.

Hiện tại trên các diễn đàn tin tặc, tình trạng mua bán dữ liệu người dùng đang diễn ra khá phức tạp. Những dữ liệu nhạy cảm như KYC (Know Your Customer), eKYC - dữ liệu để xác minh thông tin người dùng (gồm cả video khuôn mặt và ghi âm giọng nói)… là nguồn dữ liệu phong phú để kẻ gian khai thác, thực hiện mục đích xấu.

Trên thế giới, nhiều đối tượng không chỉ sử dụng video deepfake để lừa đảo đơn thuần mà còn dùng cho mục đích chính trị, trả thù cá nhân, bắt cóc tống tiền và thực hiện các phi vụ lừa đảo lớn.

Đơn cử, giám đốc điều hành của một công ty năng lượng tại Anh từng bị lừa tới 243.000 USD (hơn 5,7 tỉ đồng), khi kẻ gian dùng công nghệ deepfake của người đứng đầu công ty mẹ, yêu cầu ông này chuyển tiền khẩn cấp, theo Forbes.

Theo vị giám đốc này, giọng nói trong cuộc gọi video thật đến mức ông không nghĩ đến việc kiểm tra lại, dù tiền được chuyển đến tài khoản ngân hàng của bên thứ ba thay vì tài khoản của trụ sở chính. Ông chỉ bắt đầu nghi ngờ khi đối phương tiếp tục yêu cầu ông chuyển thêm một khoản tiền khác, nhưng đã quá muộn.