Người dân cần nâng cao cảnh giác với các cuộc gọi video lừa đảo sử dụng công nghệ Deepfake

Ngày đăng : 10:29, 24/05/2023

(Kiemsat.vn) - Thời gian gần đây, tại Việt Nam đang bùng nổ các cuộc gọi video lừa đảo trực tuyến. Tội phạm sử dụng công nghệ Deepfake – công nghệ ứng dụng trí tuệ nhân tạo để tạo ra các đoạn video có hình ảnh khuôn mặt giống người quen của nạn nhân để thực hiện hành vi lừa đảo.

Mức độ nguy hiểm của tội phạm khai thác, lợi dụng các thành tựu khoa học công nghệ đang tăng lên mỗi ngày. Trước diễn biến trên, một số tổ chức tín dụng, ngân hàng đã ban hành khuyến cáo đến khách hàng nhằm nâng cao cảnh giác với thủ đoạn lừa đảo tinh vi này. Theo khuyến cáo, một số thủ đoạn mà đối tượng thường sử dụng: Đối tượng lừa đảo sử dụng tài khoản mạng xã hội (Zalo, Facebook, ..) hoặc tạo tài khoản mạng xã hội giả danh người thân của nạn nhân. Sau đó, các đối tượng này thu thập thông tin cá nhân, hình ảnh, video có giọng nói có sẵn và sử dụng công nghệ Deepfake để tạo ra các video giả mạo. Sử dụng tài khoản mạng xã hội giả mạo hoặc chiếm đoạt được để nhắn tin mượn tiền/nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm nhằm yêu cầu chuyển tiền gấp…; đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin, tăng độ tin cậy để lừa nạn nhân chuyển tiền.

Thủ đoạn các đối tượng thường dùng để phạm tội là sử dụng các cuộc gọi video giả mạo thường có hình ảnh người thân của nạn nhân, tuy nhiên âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn, thời lượng ngắn; sau đó đối tượng lấy lý do mạng chập chờn, mất sóng, đường truyền kém để dừng cuộc gọi video. Dấu hiệu khác để nhận diện cuộc gọi mạo danh này là nội dung trả lời không trực tiếp vào câu hỏi của nạn nhân hoặc không phù hợp với ngữ cảnh đang giao tiếp. 

Ảnh minh họa.

Dữ liệu hình ảnh còn được xử lý tiếp để tạo video “Deepfake” thông qua “GAN” (Mạng lưới đối thủ sáng tạo). Đây là một loại hệ thống các máy học chuyên dụng. Hai mạng thần kinh này có thể được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin nhằm mục đích huấn luyện A.I. Chẳng hạn như ảnh chụp khuôn mặt và sau đó tạo dữ liệu mới có cùng đặc điểm.

Các chuyên gia công nghệ đã đưa ra một số khuyến cáo giúp người dùng có thể nhanh chóng phát hiện các cuộc gọi video giả mạo - “Deepfake”, đó là: hình ảnh trong video call chuyển động giật cục, như một đoạn video lỗi; ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo; thay đổi tông màu da liên tục; video có những sự nhấp nháy lạ thường; khẩu hình miệng không đồng bộ với lời nói; hiện lên các đồ vật kỹ thuật số trong hình ảnh; âm thanh, video chất lượng thấp; nhân vật nói liên tục, không chớp mắt…

Cảnh báo thủ đoạn lừa đảo chiếm đoạt tiền bằng công nghệ Deepfake của ngân hàng MSB.

Trước nguy cơ cả hình ảnh và giọng nói đều có thể bị giả mạo, nên cho dù có tin tưởng thì người dân vẫn cần phải xác minh. Chẳng hạn, nếu nhận được một đoạn tin nhắn thoại hướng đến mục đích vay tiền hoặc mượn tài sản cá nhân, dù giọng nói nghe rất quen và giống thật, nhưng vẫn nên gọi lại vào số điện thoại của người đang giao dịch để xác định có đúng là họ đang trao đổi hay không.

Để kịp thời phát hiện gian lận và bảo vệ tài sản, người dân cần lưu ý một số nội dung sau: Hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân trên mạng xã hội; nâng cao cảnh giác với các tin nhắn, cuộc gọi hỏi vay mượn tiền, yêu cầu chuyển tiền - kể cả xác nhận qua video nếu có dấu hiệu nghi ngờ; chú ý kiểm tra kỹ thông tin tài khoản nhận tiền bằng cách gọi điện trực tiếp vào số điện thoại của người liên hệ (không gọi qua các ứng dụng miễn phí) để xác minh lại thông tin trước khi chuyển tiền. 

Trường hợp nghi ngờ bị lừa đảo, người dân cần liên hệ ngay lập tức với tổ chức tín dụng, ngân hàng để được hỗ trợ kịp thời. Đồng thời thông báo cho Cơ quan Công an nơi gần nhất để được tiếp nhận và hướng dẫn giải quyết.

Trịnh Quyết