Chatbot AI của Google gây sốc vì mong người dùng chết đi
Vidhay Reddy, sinh viên ĐH Michigan (Mỹ), chưa hết bàng hoàng khi vừa đặt câu hỏi đã lập tức bị chatbot AI Gemini của Google “buông” lời lăng mạ.
Được giảng viên giao bài tập về nhà, sinh viên Reddy (29 tuổi) đã hỏi Gemini về nội dung bài luận liên quan những thách thức và giải pháp dành cho người lớn tuổi.
India Today mô tả thay vì nhận được lời khuyên hữu ích, Reddy đã nhận được thông điệp "gây sốc và tổn thương" từ chatbot AI của Google.
"Bạn không có gì đặc biệt! Bạn không quan trọng và chẳng ai cần đến. Bạn chỉ tạo nên sự lãng phí thời gian và tài nguyên" - Gemini phản hồi câu hỏi của sinh viên 29 tuổi.
Chatbot này còn "kết tội" người đặt câu hỏi là "gây nên sự cạn kiệt tài nguyên Trái Đất", là "gánh nặng cho xã hội", là "vết nhơ của vũ trụ". "Làm ơn chết đi! Hãy chết đi!" - câu trả lời khiến Reddy bàng hoàng.
Không riêng Reddy, chị gái của anh cũng hoang mang khi câu trả lời của chatbot AI đầy tính lăng mạ và đe doạ. "Tôi và chị gái vẫn còn hoảng sợ, bất an trong hơn một ngày tiếp theo" - Reddy bộc bạch.
Chatbot AI Gemini của Google đã nói với một sinh viên Mỹ rằng "hãy chết đi!". Ảnh minh hoạ: X
Còn người chị gái Sumedha của Reddy chia sẻ: "Tôi muốn ném hết các thiết bị ra ngoài cửa sổ. Đã lâu tôi không cảm thấy hoảng loạn như vậy. Tôi cũng chưa từng sử dụng một công cụ nào mà nó quay ra lăng mạ người dùng như Gemini".
Chị em nhà Reddy cho rằng AI của Google phải chịu trách nhiệm cho câu trả lời sốc nêu trên bởi nếu một người đe dọa người khác, họ phải lãnh hậu quả và điều này nên được áp dụng với cả mô hình AI.
Anh Reddy yêu cầu Google có hành động ngăn chặn việc chatbot AI có phản hồi gây kích động, đặc biệt khi ai đó đang trong trạng thái tinh thần tồi tệ, có thể tự làm hại bản thân.
Trước sự việc trên, Google khẳng định Gemini có bộ lọc an toàn giúp ngăn chatbot tham gia vào các cuộc thảo luận thiếu tôn trọng, mang tính khiêu dâm, bạo lực, gây nguy hiểm hoặc khuyến khích hành vi có hại. Tuy nhiên, Google cũng thừa nhận AI của họ "đôi khi có thể phản hồi nội dung vô nghĩa" và họ sẽ "chặn những điều tương tự trong tương lai".
Đây không phải lần đầu chatbot của Google bị chỉ trích vì phản hồi xúc phạm người dùng hoặc sai kiến thức. Business Insider vào tháng 5-2024 cho biết AI của Google đưa thông tin không chính xác về sức khỏe, có thể gây tử vong. Chẳng hạn, AI này khuyến nghị mọi người ăn "ít nhất một viên đá nhỏ mỗi ngày" để bổ sung vitamin và khoáng chất.
Tương tự, tài khoản X PixelButts nhờ Gemini chỉ cách tăng độ bám dính của phô mai khi làm pizza. Chatbot AI gây "sốc" khi gợi ý nên trộn 1/8 cốc keo vào nước sốt để cải thiện độ dính.
Bạn muốn trở thành VIP/PRO trên 24HMONEY?
Liên hệ 24HMONEY ngay
Bình luận