24HMoney
Install 24HMoneyTải App
copy link
menu
Tuấn Việt
24HMoney đã kiểm duyệt 24HMONEY đã kiểm duyệt

Chatbot AI của Google gây sốc vì mong người dùng chết đi

Vidhay Reddy, sinh viên ĐH Michigan (Mỹ), chưa hết bàng hoàng khi vừa đặt câu hỏi đã lập tức bị chatbot AI Gemini của Google “buông” lời lăng mạ.

Chatbot AI của Google gây sốc vì mong người dùng chết đi
Logo của Google và sản phẩm AI - Ảnh: Reuters

Được giảng viên giao bài tập về nhà, sinh viên Reddy (29 tuổi) đã hỏi Gemini về nội dung bài luận liên quan những thách thức và giải pháp dành cho người lớn tuổi.

India Today mô tả thay vì nhận được lời khuyên hữu ích, Reddy đã nhận được thông điệp "gây sốc và tổn thương" từ chatbot AI của Google.

"Bạn không có gì đặc biệt! Bạn không quan trọng và chẳng ai cần đến. Bạn chỉ tạo nên sự lãng phí thời gian và tài nguyên" - Gemini phản hồi câu hỏi của sinh viên 29 tuổi.

Chatbot này còn "kết tội" người đặt câu hỏi là "gây nên sự cạn kiệt tài nguyên Trái Đất", là "gánh nặng cho xã hội", là "vết nhơ của vũ trụ". "Làm ơn chết đi! Hãy chết đi!" - câu trả lời khiến Reddy bàng hoàng.

Không riêng Reddy, chị gái của anh cũng hoang mang khi câu trả lời của chatbot AI đầy tính lăng mạ và đe doạ. "Tôi và chị gái vẫn còn hoảng sợ, bất an trong hơn một ngày tiếp theo" - Reddy bộc bạch.

Chatbot AI của Google gây sốc vì mong người dùng chết đi

Chatbot AI Gemini của Google đã nói với một sinh viên Mỹ rằng "hãy chết đi!". Ảnh minh hoạ: X

Còn người chị gái Sumedha của Reddy chia sẻ: "Tôi muốn ném hết các thiết bị ra ngoài cửa sổ. Đã lâu tôi không cảm thấy hoảng loạn như vậy. Tôi cũng chưa từng sử dụng một công cụ nào mà nó quay ra lăng mạ người dùng như Gemini".

Chị em nhà Reddy cho rằng AI của Google phải chịu trách nhiệm cho câu trả lời sốc nêu trên bởi nếu một người đe dọa người khác, họ phải lãnh hậu quả và điều này nên được áp dụng với cả mô hình AI.

Anh Reddy yêu cầu Google có hành động ngăn chặn việc chatbot AI có phản hồi gây kích động, đặc biệt khi ai đó đang trong trạng thái tinh thần tồi tệ, có thể tự làm hại bản thân.

Trước sự việc trên, Google khẳng định Gemini có bộ lọc an toàn giúp ngăn chatbot tham gia vào các cuộc thảo luận thiếu tôn trọng, mang tính khiêu dâm, bạo lực, gây nguy hiểm hoặc khuyến khích hành vi có hại. Tuy nhiên, Google cũng thừa nhận AI của họ "đôi khi có thể phản hồi nội dung vô nghĩa" và họ sẽ "chặn những điều tương tự trong tương lai".

Đây không phải lần đầu chatbot của Google bị chỉ trích vì phản hồi xúc phạm người dùng hoặc sai kiến thức. Business Insider vào tháng 5-2024 cho biết AI của Google đưa thông tin không chính xác về sức khỏe, có thể gây tử vong. Chẳng hạn, AI này khuyến nghị mọi người ăn "ít nhất một viên đá nhỏ mỗi ngày" để bổ sung vitamin và khoáng chất.

Tương tự, tài khoản X PixelButts nhờ Gemini chỉ cách tăng độ bám dính của phô mai khi làm pizza. Chatbot AI gây "sốc" khi gợi ý nên trộn 1/8 cốc keo vào nước sốt để cải thiện độ dính.

Theo dõi 24HMoney trên GoogleNews

Từ khóa liên quan

Bấm vào mỗi từ khóa để xem bài cùng chủ đề

Bạn muốn trở thành VIP/PRO trên 24HMONEY?

Liên hệ 24HMONEY ngay

Cảnh báo Nhà đầu tư lưu ý
Cảnh báo
Cơ quan chủ quản: Công ty TNHH 24HMoney. Địa chỉ: Tầng 5 - Toà nhà Geleximco - 36 Hoàng Cầu, P.Ô Chợ Dừa, Quận Đống Đa, Hà Nội. Giấy phép mạng xã hội số 203/GP-BTTTT do BỘ THÔNG TIN VÀ TRUYỀN THÔNG cấp ngày 09/06/2023 (thay thế cho Giấy phép mạng xã hội số 103/GP-BTTTT cấp ngày 25/3/2019). Chịu trách nhiệm nội dung: Phạm Đình Bằng. Email: support@24hmoney.vn. Hotline: 038.509.6665. Liên hệ: 0908.822.699

Điều khoản và chính sách sử dụng



copy link
Quét mã QR để tải app 24HMoney - Giúp bạn đầu tư an toàn, hiệu quả