menu
24hmoney
Install 24HMoneyTải App
copy link
Nguyễn Hùng Cường

Bị lừa 25 triệu USD sau cuộc gọi của giám đốc tài chính giả

Theo cảnh sát Hồng Kông (Trung Quốc), một nhân viên tài chính tại một công ty đa quốc gia đã bị lừa trả 25 triệu USD cho những kẻ lừa đảo sử dụng công nghệ deepfake đóng giả làm Giám đốc tài chính qua cuộc gọi video.

Trong cuộc họp báo hôm 3/2, Cảnh sát Hồng Kông thông tin: nhân viên bị lừa tham gia cuộc gọi video với những người khác, song thực tế tất cả “đồng nghiệp” này đều là deepfake.

Theo quan chức cảnh sát cao cấp Baron Chan Shun-ching, ban đầu, nhân viên tỏ ra nghi ngờ sau khi nhận email được cho là của Giám đốc tài chính từ Anh quốc. Email nói cần phải thực hiện một giao dịch bí mật.

Bị lừa 25 triệu USD sau cuộc gọi của giám đốc tài chính giả

Deepfake ngày một tinh vi và bị lợi dụng để đem đi lừa đảo. (Ảnh: Forbes)

Tuy nhiên, nhân viên này đã gạt sang một bên những nghi ngờ ban đầu của mình sau cuộc gọi video deepfake, Chan nói. Tin rằng mọi người khác trong cuộc gọi là có thật, anh đồng ý chuyển tổng cộng 200 triệu HKD - khoảng 25,6 triệu USD, sĩ quan cảnh sát nói thêm.

Vụ việc này là một trong nhiều sự cố gần đây, trong đó những kẻ lừa đảo đã sử dụng công nghệ deepfake để sửa đổi video có sẵn công khai và các cảnh quay khác để lừa tiền mọi người.

Tại cuộc họp báo hôm thứ Sáu, cảnh sát Hồng Kông cho biết đã thực hiện 6 vụ bắt giữ liên quan đến những trò gian lận như vậy. Theo ông Chan, 8 thẻ căn cước Hồng Kông bị đánh cắp - tất cả đều được chủ sở hữu trình báo - đã được sử dụng để làm 90 đơn xin vay và 54 đăng ký tài khoản ngân hàng từ tháng 7 đến tháng 9/2023.

Ít nhất 20 lần, deepfake đã được dùng để đánh lừa các chương trình nhận dạng khuôn mặt bằng cách bắt chước những người trong hình trên chứng minh thư, theo cảnh sát. Vụ lừa đảo liên quan đến Giám đốc tài chính giả chỉ bị phát hiện khi nhân viên sau đó kiểm tra với trụ sở chính của tập đoàn.

Cảnh sát Hồng Kông không tiết lộ tên hoặc chi tiết của công ty hoặc nhân viên.

Các nhà chức trách trên khắp thế giới đang ngày càng lo ngại về sự tinh vi của công nghệ deepfake và mục đích sử dụng bất chính của nó.

Hồi cuối tháng 1, những hình ảnh khiêu dâm do AI tạo ra của ngôi sao nhạc pop người Mỹ Taylor Swift đã lan truyền trên phương tiện truyền thông xã hội, cho thấy tiềm năng gây hại do công nghệ trí tuệ nhân tạo gây ra.

Những bức ảnh được xem hàng chục triệu lần trước khi bị xóa khỏi các nền tảng xã hội.

Theo dõi 24HMoney trên GoogleNews
Nhà đầu tư lưu ý
24HMoney đã kiểm duyệt

Từ khóa (bấm vào mỗi từ khóa để xem bài cùng chủ đề)

Bạn có muốn trở thành VIP/Pro trên 24HMoney? Hãy liên hệ với chúng tôi SĐT/ Zalo: 0981 935 283.

Để truyền thông cho doanh nghiệp, vui lòng liên hệ SĐT/ Zalo: 0908 822 699.

Hòm thư: phuongpt@24hmoney.vn
14 Yêu thích
30 Chia sẻ
Thích Đã thích Thích
Bình luận
Chia sẻ
Cơ quan chủ quản: Công ty TNHH 24HMoney. Địa chỉ: Tầng 5 - Toà nhà Geleximco - 36 Hoàng Cầu, P.Ô Chợ Dừa, Quận Đống Đa, Hà Nội. Giấy phép mạng xã hội số 203/GP-BTTTT do BỘ THÔNG TIN VÀ TRUYỀN THÔNG cấp ngày 09/06/2023 (thay thế cho Giấy phép mạng xã hội số 103/GP-BTTTT cấp ngày 25/3/2019). Chịu trách nhiệm nội dung: Phạm Đình Bằng. Email: support@24hmoney.vn. Hotline: 038.509.6665. Liên hệ: 0908.822.699

Điều khoản và chính sách sử dụng



copy link
Quét mã QR để tải app 24HMoney - App Tài chính, Chứng khoán nhiều người dùng nhất cho điện thoại