Khuyến cáo lừa đảo mở tài khoản Ngân hàng bằng công nghệ Deepfake
Hiện nay, tình hình tội phạm lừa đảo trên không gian mạng diễn biến phức tạp, các đối tượng sử dụng thủ đoạn ngày càng tinh vi hơn. Một trong những thủ đoạn đang được nhắc đến nhiều hiện nay là công nghệ Deepfake – công nghệ ứng dụng trí tuệ nhân tạo (AI) làm giả cuộc gọi video vào mục đích lấy dữ liệu khuôn mặt.
Một số thủ đoạn lừa đảo đối tượng thường sử dụng
1. Đối tượng sử dụng công nghệ Deepfake giả danh hình ảnh và giọng nói để giả mạo cán bộ cơ quan Nhà nước (công an, cơ quan thuế, tòa án, …) hoặc người quen của nạn nhân để gọi video call với nạn nhân.
2. Khi gọi video call, kẻ gian bằng các thủ đoạn khác nhau sẽ yêu cầu nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống. Đối tượng sẽ ghi lại video và sử dụng để mở tài khoản online (eKYC) tại các tổ chức tài chính - ngân hàng. Trong một số trường hợp, kẻ gian yêu cầu nạn nhân cung cấp thêm các thông tin cá nhân như số CMT/CCCD, số điện thoại, địa chỉ, …
3. Khách hàng vô tình thực hiện theo các yêu cầu đã gián tiếp giúp đối tượng có dữ liệu để đăng ký mở tài khoản thành công. Cuối cùng kẻ gian sẽ sử dụng các tài khoản này với mục đích xấu.
Khuyến cáo
Khách hàng cần nâng cao cảnh giác với các cuộc gọi giới thiệu là nhân viên của cơ quan nhà nước hoặc người quen đặc biệt với các yêu cầu thực hiện các hành động lạ như: nhìn thẳng, nhìn sang trái, nhìn lên, nhìn xuống.
Không cung cấp thông tin cá nhân: số điện thoại, số CMT/CCCD, địa chỉ cho bất kỳ ai không quen biết hoặc chưa rõ mục đích sử dụng.
Trường hợp nghi ngờ bị lừa đảo, khách hàng cần liên hệ ngay lập tức với ngân hàng qua hotline 24/7 hoặc đến chi nhánh/PGD gần nhất để được hỗ trợ kịp thời. Cùng với đó, báo cho cơ quan chức năng tại địa chỉ https://canhbao.ncsc.gov.vn hoặc báo lên Dự án chống lừa đảo https://chongluadao.vn.
Bạn muốn trở thành VIP/PRO trên 24HMONEY?
Liên hệ 24HMONEY ngay
Bình luận