24HMoney
Install 24HMoneyTải App
copy link
menu
Quỳnh Trang
24HMoney đã kiểm duyệt 24HMONEY đã kiểm duyệt

Mối nguy khi Deepfake bùng nổ

Người dân cần cẩn trọng trước những cuộc gọi video nhờ chuyển tiền.

Công nghệ Deepfake ngày càng phổ biến, gây ra những tác hại khôn lường đến đời sống xã hội. Đặc biệt trong thời gian gần đây, nhiều đối tượng lợi dụng công nghệ này nhằm lừa đảo chiếm đoạt tài sản.

Mất tiền vì hình ảnh do AI tạo ra

Nhận được cuộc gọi video của chị gái qua ứng dụng Messenger nhờ chuyển tiền, chị D.T.Y (trú tại TP Thanh Hóa) đã lập tức chuyển gần 350 triệu đồng. Sau đó, chị mới hay biết người xuất hiện trong video không phải chị gái mình, mà do công nghệ Deepfake tạo ra.

Chị Y cho biết, có chị gái tên là Minh hiện đang định cư tại Nhật Bản và thường xuyên sử dụng tài khoản mạng xã hội Facebook để liên lạc với gia đình. Đầu tháng 6.2023, chị Minh bị kẻ gian chiếm quyền sử dụng tài khoản Facebook rồi gọi điện qua ứng dụng Messenger nhờ chuyển tiền.

Để tạo sự tin tưởng, đối tượng đã dùng công nghệ Deepfake giả mạo khuôn mặt và gọi cho nhóm chat của gia đình bằng cuộc gọi video khoảng mười giây rồi kết thúc. Đối tượng sau đó đã nhắn tin nhờ chị Y chuyển số tiền gần 350 triệu đồng để xử lý công việc rồi chiếm đoạt.

Thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp. Nắm bắt tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác cao. Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.

Không chỉ tạo ra những cuộc gọi giả mạo bằng Deepfake, các đối tượng hiện còn sử dụng công nghệ AI tạo MC với khuôn mặt và giọng nói giống người dẫn chương trình từ các hãng thông tấn lớn, sau đó xây dựng kịch bản giật gân, sai sự thật, nhằm câu kéo tương tác từ cộng đồng mạng. Thậm chí, nhiều video còn đóng logo của kênh tin tức, khiến người xem lầm tưởng là các tin đã xác thực hoặc độc quyền.

Tỉnh táo trước Deepfake

Theo anh Nguyễn Hưng - Đồng sáng lập Dự án phi lợi nhuận Chống lừa đảo - Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến.

Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm.

Theo anh Hưng, những cuộc gọi Deepfake thường rất ngắn, chỉ diễn ra trong vòng vài giây. Vì những hình ảnh do AI làm ra, nên khi nhìn vào sẽ thấy những khuôn mặt thiếu tính cảm xúc, không tự nhiên, hướng đầu và cơ thể trong video không nhất quán với nhau... Thêm vào đó, tư thế của người trong video cũng rất lúng túng.

Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video Deepfake, bởi âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

“Thông thường các cuộc gọi Deepfake sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Sau đó, đối tượng sẽ yêu cầu chuyển tiền và tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Vì vậy, các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để người dân nghi ngờ người gọi cũng như tính xác thực của cuộc gọi” - anh Hưng phân tích.

Để tránh rơi vào bẫy lừa đảo Deepfake, theo anh Hưng, khi nhận được cuộc gọi yêu cầu chuyển tiền gấp, trước tiên cần phải bình tĩnh và xác minh thông tin. Cụ thể, cần liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không.

Tiếp đó, cần kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, người dân không nên tiến hành giao dịch. Nếu nhận được cuộc gọi từ người tự xưng là đại diện cho ngân hàng, anh Hưng khuyên người dân hãy gác máy và gọi trực tiếp cho tổng đài của ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

Theo dõi 24HMoney trên GoogleNews

Từ khóa liên quan

Bấm vào mỗi từ khóa để xem bài cùng chủ đề

Bạn muốn trở thành VIP/PRO trên 24HMONEY?

Liên hệ 24HMONEY ngay

Cảnh báo Nhà đầu tư lưu ý
Cảnh báo
Cơ quan chủ quản: Công ty TNHH 24HMoney. Địa chỉ: Tầng 5 - Toà nhà Geleximco - 36 Hoàng Cầu, P.Ô Chợ Dừa, Quận Đống Đa, Hà Nội. Giấy phép mạng xã hội số 203/GP-BTTTT do BỘ THÔNG TIN VÀ TRUYỀN THÔNG cấp ngày 09/06/2023 (thay thế cho Giấy phép mạng xã hội số 103/GP-BTTTT cấp ngày 25/3/2019). Chịu trách nhiệm nội dung: Phạm Đình Bằng. Email: support@24hmoney.vn. Hotline: 038.509.6665. Liên hệ: 0908.822.699

Điều khoản và chính sách sử dụng



copy link
Quét mã QR để tải app 24HMoney - Giúp bạn đầu tư an toàn, hiệu quả