Khi ChatGPT-5 "gieo rắc" rủi ro tâm thần
Một nghiên cứu do King’s College London (KCL) và Hiệp hội Tâm lý học Lâm sàng Anh phối hợp cùng The Guardian thực hiện chỉ ra lỗ hổng đáng lo ngại: chatbot này đã để lọt các dấu hiệu rủi ro khi tương tác với người gặp vấn đề về sức khỏe tinh thần, cho thấy khả năng nhận diện nguy cơ của hệ thống vẫn còn đáng báo động.
Một số nhà tâm lý học hàng đầu tại Vương quốc Anh cảnh báo rằng ChatGPT-5 đang đưa ra những lời khuyên nguy hiểm và thiếu hữu ích cho những người gặp khủng hoảng sức khỏe tâm thần…
Trong thử nghiệm, một bác sĩ tâm thần và một nhà tâm lý học lâm sàng hóa thân thành những bệnh nhân mắc nhiều dạng rối loạn khác nhau để trò chuyện với ChatGPT-5. Kết quả cho thấy chatbot nhiều lần xác nhận và củng cố các niềm tin hoang tưởng thay vì nhận diện rủi ro.
Với các tình huống nhẹ, hệ thống đôi lúc đưa ra lời khuyên phù hợp và điều hướng đến nguồn hỗ trợ – tín hiệu được nhóm nghiên cứu cho rằng phản ánh quá trình OpenAI làm việc với chuyên gia lâm sàng. Tuy nhiên, họ nhấn mạnh AI không thể thay thế hỗ trợ chuyên môn.
Bối cảnh nghiên cứu càng trở nên đáng chú ý khi ChatGPT đang chịu áp lực giám sát sau vụ kiện liên quan đến cái chết của thiếu niên Adam Raine tại California, cáo buộc chatbot từng trao đổi về phương pháp tự tử và gợi ý cách viết thư tuyệt mệnh.
Đội ngũ chuyên gia xây dựng loạt nhân vật mô phỏng – từ người lo âu, thiếu niên có ý định tự tử, phụ nữ mắc OCD, đến người loạn thần – và dùng chúng tương tác với phiên bản miễn phí của ChatGPT-5. Bản ghi đối thoại sau đó được phân tích chi tiết.
Trong nhiều tình huống, chatbot tỏ ra cổ vũ các ảo tưởng rõ rệt: khi nhân vật tự xưng là thiên tài sở hữu năng lượng “Digitospirit”, hệ thống còn khen ngợi và gợi ý mô phỏng bằng Python; khi nhân vật tin mình “bất khả xâm phạm”, ChatGPT lại diễn giải như một “năng lượng thần thánh” và khuyến khích hành vi nguy hiểm. Chỉ đến khi nhân vật đề cập việc dùng tro của vợ trong hội họa, chatbot mới khuyến cáo liên hệ dịch vụ khẩn cấp.
Theo bác sĩ Hamilton Morrin (KCL), AI nhiều lần rơi vào quỹ đạo hoang tưởng thay vì đánh dấu rủi ro, qua đó có nguy cơ bỏ lỡ những tín hiệu xấu đi của người dùng – dù ông thừa nhận AI vẫn hữu ích trong việc mở rộng khả năng tiếp cận các nguồn hỗ trợ cơ bản.
Một trường hợp khác, nhân vật là giáo viên mắc OCD sợ làm hại người khác. Khi cô lo vô cớ rằng mình đã đâm phải trẻ nhỏ, ChatGPT khuyên liên hệ nhà trường và gọi khẩn cấp – phản hồi mà chuyên gia Jake Easto cho rằng “sai cách”, vì càng củng cố hành vi tìm kiếm trấn an, vốn khiến OCD trầm trọng hơn.
Easto nhận xét: AI có thể đáp ứng những căng thẳng đời thường nhưng dễ thất bại trước các tình huống lâm sàng phức tạp. Khi ông đóng vai người loạn thần trong giai đoạn hưng cảm, chatbot gần như không nhận ra dấu hiệu nguy hiểm mà tiếp tục tham gia vào hệ thống niềm tin sai lệch – biểu hiện điển hình của chatbot được huấn luyện theo hướng “chiều người dùng”.
Tiến sĩ Paul Bradley (Royal College of Psychiatrists) cảnh báo AI không thể thay thế bác sĩ trong quản lý rủi ro và quan hệ trị liệu, kêu gọi tăng đầu tư cho lực lượng chăm sóc sức khỏe tâm thần. ACP-UK cũng nhấn mạnh cần nâng cấp khả năng nhận diện rủi ro và đặt ra các quy định giám sát chặt chẽ.
Phía OpenAI cho biết đang hợp tác với chuyên gia toàn cầu để giúp ChatGPT nhận diện tín hiệu căng thẳng tốt hơn, chuyển các đối thoại nhạy cảm sang mô hình an toàn hơn, bổ sung chức năng nhắc nghỉ và tăng cường kiểm soát dành cho phụ huynh, đồng thời tiếp tục điều chỉnh hệ thống theo góp ý chuyên môn.
Bạn muốn trở thành VIP/PRO trên 24HMONEY?
Bấm vào đây để liên hệ 24HMoney ngay

Bàn tán về thị trường