Deepfakes đe dọa doanh nghiệp
Lâu nay khi nói đến deepfakes, tức kỹ thuật dùng trí tuệ nhân tạo và học máy để làm ra các video giả, người ta chỉ nghĩ đến loại video giả các chính trị gia nói chuyện trên trời dưới đất hay loại video các nhân vật nổi tiếng như David Beckham kể chuyện tiếu lâm bằng tiếng Việt. Thế nhưng, vừa có những cảnh báo bọn lừa đảo dùng công nghệ này để giả danh chủ doanh nghiệp đánh lừa nhân viên để chiếm đoạt tiền bạc.
Tờ Axio cho biết đã có vài ba trường hợp bọn tội phạm sử dụng công nghệ deepfakes, nhưng chỉ dùng tiếng nói chứ chưa cần đến hình ảnh. Trước tiên, bọn tội phạm công nghệ thu thập giọng nói của CEO một doanh nghiệp lớn, cái này chỉ cần đến các buổi họp đại hội đồng cổ đông ghi âm hay dùng các băng ghi âm các buổi nói chuyện, phát biểu của các CEO này. Có trong tay giọng nói mẫu, chúng sẽ cho máy học và sau đó trí tuệ nhân tạo sẽ tự động “dịch” bất kỳ nội dung nào chúng muốn thành đúng y giọng nói của CEO này.
Thử tưởng tượng một ngày đẹp trời, sếp tổng gọi điện về cho phòng kế toán, nói chuyển gấp vài chục ngàn đô la Mỹ vào một tài khoản nào đó. Nếu khoản tiền nằm dưới mức cần có chữ ký duyệt hay do ông CEO này đã ủy quyền sao đó, rất có thể người kế toán trưởng nghe đúng giọng nói của sếp sẽ làm theo lệnh sếp. Axio trích lời hãng bảo mật Symantec cho biết đã có ít nhất ba vụ tấn công lừa đảo bằng giọng nói giả nhắm vào các công ty lớn. Trong cả ba trường hợp, “CEO” giả gọi điện cho một nhân viên quản lý tài chính yêu cầu chuyển tiền gấp để giải quyết một phi vụ khẩn. Axio cho biết thiệt hại từ ba vụ này lên đến con số hàng triệu đô la cho mỗi công ty nhưng không tiết lộ danh tính ba công ty này.
Chưa cần đến lừa đảo, công nghệ giả giọng nói này có thể dùng để phá doanh nghiệp. Chẳng hạn, một đối thủ hay một kẻ phá hoại nào đó muốn dìm giá cổ phiếu Apple thì chỉ cần làm lộ ra một băng ghi âm giả giọng nói của Tim Cook nói chuyện riêng tư với một người khác, bày tỏ sự lo âu về một lỗi tưởng tượng của chiếc iPhone sắp ra mắt; lúc đó, chắc chắn giá cổ phiếu Apple sẽ lao dốc. Nếu Apple xử lý nhanh, chỉ trong vòng 1 giờ đã chứng minh đây là băng ghi âm giả, thiệt hại cũng đã xảy ra, bọn xấu cũng đủ thời gian để tư lợi.
Còn trong tương lai không xa, bọn xấu dùng video giả hay băng ghi âm giả để tống tiền doanh nghiệp là chuyện hoàn toàn có thể xảy ra. Hiện nay thế giới kinh doanh đã có sẵn vô số lời đồn đại hay tin chưa kiểm chứng; chỉ cần theo dõi kỹ các CEO có vấn đề với dư luận là kẻ xấu có thể làm tiền bằng thủ đoạn giả giọng nói.
Tuy nhiên, nhiều chuyên gia bảo mật cho rằng đáng ngại nhất không phải là các vụ lừa đảo trắng trợn vì dễ phát hiện, dễ khoanh vùng, mà là kẻ xấu sử dụng giọng nói giả chỉ để lấy thông tin, rồi từ thông tin này mới tiến hành lừa đảo. Chẳng hạn, không nhân viên quản lý mạng nào không cung cấp các thông số của mạng, kể cả mật khẩu nếu họ nhận ra người đang gọi điện cho mình là sếp tổng giám đốc. Hoặc một cuộn băng ghi âm rò rỉ cuộc nói chuyện của tổng giám đốc và một tay phó, không nói điều gì gây sốc nhưng đưa ra một số thông tin gây tranh cãi hay chia rẽ trong nội bộ. Chừng đó cũng đủ gây hại cho doanh nghiệp.
Điều đáng lo ngại là công nghệ làm đồ giả này hiện đã có miễn phí trên mạng. Phóng viên BuzzFeed News thử dùng phần mềm miễn phí Lyrebird có chức năng phân tích giọng nói của bạn rồi dựa vào dữ liệu này để tạo một khuôn mẫu. Sau một giờ huấn luyện cho máy, Lyrebird sẵn sàng, bạn chỉ cần gõ bất kỳ dòng chữ nào vào một ô, Lyrebird sẽ dùng khuôn mẫu đã tạo để máy đọc giọng y như giọng bạn đang nói. Mặc dù còn thô sơ, phóng viên thử dùng giọng nói của Lyrebird tạo ra để trò chuyện với mẹ của ông và dù phải giả vờ sóng yếu, cuộc trò chuyện giữa hai mẹ con diễn ra thông suốt, bà mẹ không biết mình đang nói chuyện với máy giả giọng con mình!
Có lẽ khi công nghệ phát hiện giọng nói giả hay video giả chưa hoàn thiện, doanh nghiệp ắt phải biên soạn thêm một cẩm nang hướng dẫn nhân viên phòng ngừa có kẻ giả giọng sếp để lừa đảo. E rằng lúc đó phòng kế toán khi nhận điện thoại của CEO phải hỏi thêm một số thông tin khác, kể cả mật khẩu đã quy định từ trước thì mới thi hành lệnh của sếp!
Bạn muốn trở thành VIP/PRO trên 24HMONEY?
Liên hệ 24HMONEY ngay
Bình luận