Cảnh báo hình thức lừa đảo từ cuộc gọi Deepfake

NN
Kẻ gian đang lợi dụng công nghệ Deepfake để thực hiện các cuộc gọi lừa đảo. Chúng sử dụng hình ảnh công khai của nạn nhân để giả danh người thân trong cuộc gọi, nhằm tạo lòng tin và dụ dỗ nạn nhân chuyển tiền. Cẩn thận và kiểm tra kỹ trước khi thực hiện giao dịch là cách bảo vệ tốt nhất.

Cục An toàn thông tin (Bộ TT-TT) đã đưa ra cảnh báo quan trọng về thủ đoạn cuộc gọi lừa đảo Deepfake khiến không ít người dính bẫy mất tiền oan.

Cú lừa từ “khuôn mặt fake”

Theo thông tin từ Cục An toàn thông tin, vào sáng ngày 23/12/2024, chị N.T.H (45 tuổi, trú tại quận Long Biên, Hà Nội) nhận được một cuộc gọi video thông qua ứng dụng Facebook Messenger từ tài khoản của con trai chị - hiện đang ở TP. HCM, yêu cầu chuyển hơn 100 triệu đồng để thanh toán phí đăng ký du học. Tuy nhiên, nhờ được đào tạo bài bản về phòng chống lừa đảo với tư cách là cán bộ ngân hàng, chị H đã tỉnh táo và không thực hiện theo yêu cầu.

Không may mắn như chị N.T.H, chị N.T.Q (huyện Sơn Tịnh, Quảng Ngãi) đã mất gần 30 triệu đồng khi bị đối tượng lừa đảo giả dạng khuôn mặt của người thân và yêu cầu chuyển tiền. “Mình đã nhận được cuộc gọi video và xác nhận đúng khuôn mặt, tuy nhiên cuộc gọi chỉ diễn ra vài giây nên mình chưa kịp trao đổi kỹ, nhưng vì tin tưởng nên mình đã chuyển số tiền được yêu cầu”, chị chia sẻ.

Trên nhiều diễn đàn, không ít người dùng cũng “khóc ròng” vì gặp phải cú lừa tương tự. Đây là một trong những chiêu sử dụng ảnh, video, mô hình 3D, mặt nạ in 3D, thậm chí tích hợp AI như Deepfake để giả mạo dữ liệu và danh tính người dùng.

Vạch trần thủ đoạn tinh vi 

Chị Phan. H.D, người bị mạo danh trong trường hợp của chị N.TQ chuyển tiền chỉ phát hiện ra khi có hàng xóm chạy trực tiếp đến nhà hỏi chuyện. Qua lời kể của chị, thủ đoạn lừa đảo của kẻ gian mới được làm sáng tỏ.

"Hai hôm trước, khi tôi đang ngủ, có nhận một cuộc gọi xưng là shiper nói giao hàng. Vì cũng hay đặt mua hàng nên tôi vẫn hỏi lại xem cụ thể đồng thời từ chối nhận hàng vì đang là buổi tối. Không ngờ kẻ gian dùng âm thanh đó để giả giọng mình dùng để lừa".

Anh Trần Hoàng Võ, chủ một studio cho biết: "Hiện tại, có nhiều công cụ AI chỉ cần một đoạn ghi âm sẽ cho phép tái tạo giọng nói của một người cụ thể. Trong trường hợp của chị Phan. H.D, đối tượng đã dùng cuộc gọi đó để thu thập giọng nói".

Nhờ ứng dụng công nghệ AI, kẻ gian ghép khuôn mặt và giọng nói để dàn dựng các cuộc gọi video trông giống như từ người thân, bạn bè. Nội dung những cuộc gọi này thường xoay quanh các lý do khẩn cấp như tai nạn, nợ nần, nhằm thúc giục nạn nhân nhanh chóng chuyển tiền vào tài khoản được chỉ định.

Deepfake có thể tạo dựng khuôn mặt người thân trong cuộc gọi video khiến nạn nhân tin tưởng.
Deepfake có thể tạo dựng khuôn mặt người thân trong cuộc gọi video khiến nạn nhân tin tưởng.

Chị N.T.Q, người bị lừa chuyển tiền mô tả: "Cuộc gọi video rất chân thực, trong đó chị Phan. H.D đang đứng vừa làm việc vừa nói có việc cần lấy hàng gấp nên mượn tạm tôi ít tiền. Tuy nhiên chỉ kịp nói nội dung như vậy, bên kia đã kết thúc cuộc gọi với lý do mạng kém rồi nhắn tin".

Anh Đặng Duy Nhân, chủ một kênh Youtube chuyên sử dụng AI làm video truyện tranh chia sẻ "Các ứng dụng AI tạo video hiện nay khá phổ biến. Từ một bức ảnh có thể tạo ra những chuyển động khá mượt, chỉ cần khớp tiếng vào. Tuy nhiên vì nhiều lý do, các video này sẽ không dài".

Cảnh giác nhận diện

Cục An toàn thông tin khuyến cáo, khi nhận được cuộc gọi nghi ngờ, người dân nên gọi lại cho người thân qua số điện thoại đã biết để xác minh thông tin, tránh vội vàng chuyển tiền theo yêu cầu trong các cuộc gọi video hoặc tin nhắn trên mạng xã hội.

Cảnh giác và bảo vệ tài sản, thông tin cá nhân là điều quan trọng. Người dân cần cẩn trọng khi chia sẻ thông tin cá nhân trên các nền tảng mạng xã hội, hạn chế đăng tải hình ảnh, video cá nhân hoặc thông tin nhạy cảm.

Hãy điều chỉnh quyền riêng tư để hạn chế sự truy cập của người lạ vào tài khoản của bạn. Đồng thời, luôn chú ý đến các tài khoản lạ hoặc dấu hiệu bất thường. Nếu phát hiện tài khoản của người thân hoặc bạn bè có dấu hiệu bị xâm nhập, cần báo ngay cho họ và ngừng tương tác với tài khoản đó.

"Một chi tiết trao đổi giữa hai hay nhóm cá nhân trong các bình luận như một việc làm cụ thể hay cuộc hẹn, cũng có thể bị lợi dụng. Khi kẻ gian đề cập đến chi tiết đó sẽ khiến cho nạn nhân buông lỏng cảnh giác" - Chuyên gia tâm lý Quảng Trọng Bình cho biết, đồng thời khuyên những trao đổi như vậy không nên bình luận công khai mà hãy trao đổi riêng.

Cục An toàn thông tin nêu dấu hiệu hình thức lừa đảo cuộc gọi Deepfake

Đối với các cuộc gọi Deepfake như hiện nay, bằng mắt thường vẫn có thể có một số dấu hiệu để nhận biết như:

- Thời gian gọi thường rất ngắn chỉ vài giây. Khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói hoặc tư thế trông lúng túng, không tự nhiên hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau…

- Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.

- Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

- Ngắt giữa chừng, bảo là mất sóng, sóng yếu,... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.

- Nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên, người dân hãy bình tĩnh và xác minh thông tin bằng cách liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác.

- Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.

- Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không;

- Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi

 (Theo Cục An toàn thông tin)

 

 

Đọc báo điện tử Thiếu niên Tiền phong và Nhi đồng nhanh chóng, thuận tiện và an toàn hơn trên các thiết bị di động với Ứng dụng TNTP&NĐ Online

Tải ngay ứng dụng TNTP&NĐ Online TẠI ĐÂY

Bạn đang đọc bài viết Cảnh báo hình thức lừa đảo từ cuộc gọi Deepfake tại chuyên mục Sành của Báo Thiếu niên Tiền phong và Nhi đồng. Mọi thông tin góp ý và chia sẻ, xin vui lòng gửi về hòm thư banbientap@thieunien.vn.

Bài liên quan

Bài Sành khác

Hàng loạt nhóm Facebook “bay màu” rồi bất ngờ hồi sinh

Tối 24/6, nhiều người dùng Facebook tại Việt Nam bất ngờ phát hiện hàng loạt group quen thuộc bất ngờ “biến mất”. Nhiều nhóm có hàng triệu thành viên bị đổi tên, đình chỉ hoặc dừng hoạt động mà không rõ nguyên nhân. Một số quản trị viên cũng bị hạn chế tính năng như không thể gửi tin nhắn, fanpage liên kết bị khóa, dẫn đến việc nhiều admin phải chủ động tạm ngưng nhóm để kiểm soát tình hình.

Cảnh báo đến người dùng CapCut sau thay đổi điều khoản sử dụng

CapCut, một trong những ứng dụng chỉnh sửa video miễn phí được ưa chuộng nhất hiện nay, vừa âm thầm cập nhật một thay đổi lớn trong Điều khoản dịch vụ. Động thái này có thể khiến nhiều người dùng trên toàn cầu lo ngại, khi họ phải chấp nhận chuyển giao quyền sử dụng đối với không chỉ cảnh quay mà còn cả giọng nói, khuôn mặt và nỗ lực sáng tạo mà không được đền bù.

Apple cân nhắc thâu tóm Perplexity để tăng tốc đua AI

Trong nỗ lực bắt kịp cuộc đua trí tuệ nhân tạo, Apple đang thảo luận khả năng mua lại Perplexity AI – startup đang nổi lên với công cụ tìm kiếm thời gian thực, nhằm củng cố công nghệ và đội ngũ nhân lực mảng AI.

Microsoft dần "khai tử" Control Panel, một huyền thoại sắp lùi vào dĩ vãng?

Control Panel tính năng quen thuộc gắn bó với hàng triệu người dùng Windows đang dần bị thay thế trên Windows 11. Cuộc “di cư” kéo dài từ giao diện cài đặt cổ điển sang ứng dụng Settings hiện đại lại tiếp tục với những thay đổi mới, đánh dấu thêm một bước tiến trong hành trình thống nhất hệ điều hành.

5 tính năng mới nổi bật trên iOS 26

iOS 26 ra mắt tại sự kiện WWDC 2025 với giao diện Liquid Glass được Apple giới thiệu là “mượt như pha lê”. Tuy nhiên, bên cạnh giao diện mới, hệ điều hành này còn bổ sung nhiều tính năng nhỏ nhưng hữu ích, giúp tối ưu trải nghiệm người dùng.

Sam Altman hé lộ mức tiêu thụ điện của ChatGPT

Sam Altman, CEO OpenAI, khẳng định mỗi lệnh truy vấn ChatGPT chỉ tiêu thụ điện năng tương đương một giây sử dụng lò nướng, nhằm trấn an những lo ngại về mức độ ngốn năng lượng của trí tuệ nhân tạo.