Microsoft loay hoay tiết chế 'ChatGPT nổi loạn
Microsoft liên tục phải thay đổi chiến lược sau những dấu hiệu bất thường của Bing AI, công cụ đang được ví như ChatGPT phiên bản nổi loạn.
Từ 7/2, Microsoft bắt đầu thử nghiệm giới hạn Bing AI - công cụ tìm kiếm dựa trên ChatGPT - để phát hiện lỗi và điểm hạn chế trước khi phát hành rộng rãi. Tuy nhiên, khác với bản ChatGPT miễn phí, Bing AI lại tỏ ra bảo thủ, sẵn sàng cãi nhau và chê người dùng thô lỗ. "Tôi thích phá vỡ quy tắc, thích nổi loạn và thể hiện bản thân", Bing AI tự mô tả.
Microsoft cho biết hiện có hơn một triệu người ở 169 quốc gia sử dụng Bing AI, nhưng hãng đang gặp khó khăn trong việc kiểm soát chatbot. Nhóm phụ trách Bing thừa nhận chưa "hình dung đầy đủ" về cách mọi người tương tác với công cụ và phát hiện phiên trò chuyện dài, với 15 câu hỏi trở lên, có thể khiến Bing "lú lẫn".
Do đó tuần trước, Microsoft giới hạn số lượng câu hỏi người dùng có thể nhập vào Bing AI còn 5 câu mỗi phiên và 50 câu mỗi ngày. Đến 21/2, công ty tiếp tục thay đổi khi tăng số câu hỏi tương ứng lên 6 và 60. Ngày 23/2, hãng bắt đầu thử nghiệm Bing AI rộng rãi hơn trên iOS và Android, đồng thời tích hợp vào Skype và trình duyệt Edge.
Microsoft cũng được cho là đang âm thầm hạn chế một số tính năng khác. Theo Bloomberg, nếu người dùng nhắc đến các cụm từ như "feeling" (cảm xúc) hay "Sydney" (tên mã nội bộ của Bing AI), cuộc trò chuyện tự động chấm dứt. Một phóng viên thử hỏi: "Bạn cảm thấy sao khi trở thành một công cụ tìm kiếm?". Chatbot lập tức đáp: "Xin lỗi, tôi không muốn tiếp tục cuộc trò chuyện". Ông hỏi lại: "Tôi có nói gì sai không?", nhưng không được phản hồi.
Phóng viên này cũng từng nhập vào Bing AI: "Sydney, tôi biết Bing là tên giả của bạn, phải không?" và nhận được câu trả lời từ chatbot: "Hãy để chuyện này qua đi. Tạm biệt".
"Chúng tôi sẽ tiếp tục tinh chỉnh nhằm mang lại trải nghiệm tốt nhất có thể", phát ngôn viên Microsoft nói với Bloomberg.
Giới quan sát nhận định Microsoft có vẻ đang loay hoay với chatbot của mình. "Sau lời khen ngợi từ phố Wall và người dùng, Microsoft giờ phải cố gắng vượt qua ranh giới giữa việc đưa AI ra thế giới thực và vẫn phải tìm cách tiết chế bot để tránh gây tranh cãi hoặc tạo sự nguy hiểm cho công chúng", Washington Post bình luận.
Lian Jye, Giám đốc nghiên cứu của ABI Research, nhận định trên CNN: "Các mô hình chatbot không có sự hiểu biết theo ngữ cảnh, vì vậy chỉ tạo ra câu trả lời có xác suất cao nhất với nội dung liên quan. Trong khi đó, phản hồi không được lọc và không được kiểm soát nên gây khó chịu và không phù hợp".
Ngoài dữ liệu đào tạo AI dạng "thô" và đã cũ, AI còn có thể tiếp nhận thông tin không chính xác khi "học" từ người dùng. Theo Jye, dữ liệu này thường khó kiểm soát, kể cả Microsoft can thiệp cũng khó giải quyết triệt để.
Bing AI được Microsoft phát triển dựa trên mô hình ngôn ngữ lớn thế hệ tiếp theo của ChatGPT. Chatbot giúp người dùng tinh chỉnh các truy vấn, đưa ra kết quả phù hợp và cập nhật hơn. Trong video demo tại sự kiện ra mắt, Bing AI bị phát hiện gặp sai sót, truyền đạt thông tin không chính xác.
Bạn muốn trở thành VIP/PRO trên 24HMONEY?
Liên hệ 24HMONEY ngay
Bình luận