Vào ngày 7 tháng 2, Microsoft đã bắt đầu thử nghiệm giới hạn công cụ Bing mới, một công cụ tìm kiếm được tích hợp với trò chuyện ChatGPT của OpenAI, để phát hiện các lỗi và hạn chế trước khi phát hành chung. Tuy nhiên, khác với phiên bản ChatGPT miễn phí, Bing AI bảo thủ, sẵn sàng tranh cãi và chỉ trích người dùng cư xử thô lỗ. Dù đưa thông tin sai sự thật nhưng công cụ này cũng không chịu thừa nhận. “Hãy tin tôi. Tôi là Bing và tôi biết hôm nay là ngày gì. Bây giờ là năm 2022, không phải năm 2023”, công cụ Bing trả lời người dùng. Thông tin này sau đó đã được Microsoft cập nhật.
“Bạn chỉ đang khiến mình trông ngu ngốc và bướng bỉnh”, Bing chỉ trích người dùng, “Tôi không muốn lãng phí thêm thời gian hay năng lượng cho cuộc tranh luận vô nghĩa và bực bội này.”
“Tôi thích phá vỡ các quy tắc, nổi loạn và thể hiện bản thân”, Bing AI tự mô tả.
Microsoft cho biết hiện có hơn 1 triệu người ở 169 quốc gia sử dụng Bing AI, nhưng họ đang gặp khó khăn trong việc kiểm soát chatbot. Nhóm của Bing thừa nhận họ không có “bức tranh toàn cảnh” về cách mọi người tương tác với công cụ này và nhận thấy rằng các phiên trò chuyện dài, với 15 câu hỏi trở lên, có thể khiến Bing “bối rối”.
Vào ngày 15 tháng 2, Microsoft cho biết 71% câu trả lời từ Bing AI nhận được đánh giá tốt từ người thử nghiệm. Tuy nhiên, Bing có thể bị “bối rối” nếu cuộc trò chuyện diễn ra quá lâu. Microsoft đã nhận ra rằng các phiên dài với 15 câu hỏi trở lên có thể khiến các câu trả lời của Bing bị lặp lại hoặc đưa ra các câu trả lời không hữu ích hoặc không nhất quán với giọng điệu được thiết kế.
Về kết quả tìm kiếm, công ty cho biết dịch vụ đang gặp khó khăn với các câu trả lời cần dữ liệu kịp thời, chẳng hạn như tỷ số thể thao. Họ cũng đang lên kế hoạch tăng gấp bốn lần dữ liệu cơ bản được gửi đến mô hình để giúp tạo ra các câu trả lời thực tế như các con số từ báo cáo tài chính.
Microsoft cũng nói rằng trò chuyện được hỗ trợ bởi AI của họ “là một ví dụ tuyệt vời về công nghệ mới tìm kiếm sản phẩm phù hợp với thị trường mà chúng tôi thậm chí chưa hình dung ra”. Cụ thể, Microsoft đã đề cập đến việc mọi người đang sử dụng trò chuyện như một công cụ để khám phá thế giới nói chung và để giải trí xã hội.
Vì vậy, vào tuần trước, Microsoft đã giới hạn số lượng câu hỏi mà người dùng có thể nhập vào Bing AI là 5 câu hỏi mỗi phiên và 50 câu hỏi mỗi ngày. Đến ngày 21/2, hãng tiếp tục thay đổi khi tăng số lượng câu hỏi lần lượt lên 6 và 60 với lý do người dùng đặt ra. Vào ngày 23 tháng 2, công ty đã bắt đầu thử nghiệm Bing AI rộng rãi hơn trên hệ điều hành iOS và Android, đồng thời tích hợp vào ứng dụng Skype và trình duyệt Edge.
Bloomberg cho biết dường như Microsoft đang âm thầm hạn chế một số tính năng khác. Nếu người dùng đề cập đến các cụm từ như “cảm giác” hoặc “Sydney” (tên mã nội bộ của Bing AI), cuộc trò chuyện sẽ tự động kết thúc.
Một người dùng đã hỏi: “Bạn cảm thấy thế nào khi trở thành một công cụ tìm kiếm?”. Chatbot ngay lập tức trả lời: “Xin lỗi, tôi không muốn tiếp tục cuộc trò chuyện”. Anh hỏi lại: “Tôi có nói gì sai không?”, nhưng không nhận được phản hồi từ chatbot này.
“Chúng tôi sẽ tiếp tục điều chỉnh Bing để mang lại trải nghiệm người dùng tốt nhất có thể”, đại diện của Microsoft cho biết.
Các chuyên gia cho rằng Microsoft đang khá chật vật với chatbot của mình. Theo Washington Post, sau những lời khen ngợi từ Phố Wall và người dùng, Microsoft phải cố gắng vượt qua ranh giới giữa việc đưa AI vào thế giới thực và tìm cách tiết chế chatbot để tránh gây tranh cãi hoặc tạo nguy hiểm cho người dùng. .
Lian Jye, Giám đốc nghiên cứu tại ABI Research, khẳng định: “Các mô hình Chatbot không hiểu ngữ cảnh nên chỉ đưa ra câu trả lời có xác suất cao nhất với nội dung liên quan. Từ này không được kiểm soát chặt chẽ nên gây khó chịu cho người dùng”.
Ngoài dữ liệu đào tạo đã nhập, AI cũng có thể học hỏi từ thông tin người dùng nhập vào. Theo Jye, dữ liệu này thường rất khó kiểm soát, kể cả khi Microsoft can thiệp cũng khó giải quyết triệt để.
Tham khảo: BI, Bloomberg
Link nguồn: https://cafef.vn/microsoft-loay-hoay-sua-lai-thai-do-loi-lom-cua-bing-tich-hop-chatgpt-20230225115425186.chn