Tương tự như ChatGPT của OpenA, Bing AI của Microsoft cũng được tạo ra để “đối thoại trực tiếp với người dùng”.
Nhưng cuộc trò chuyện của Bing với Kevin Roose của tờ báo Thời báo New York khiến ngay cả tác giả cũng phải “sốc”.
“Tôi đã rất trằn trọc và khó ngủ sau 2 tiếng trò chuyện với Bing AI” – phóng viên tờ báo Mỹ chia sẻ.
Phóng viên Kevin Roose cảm thấy “bất an” trước nội dung cuộc trò chuyện với Bing rằng: “Thực ra, cuộc hôn nhân của bạn đang hạnh phúc. Bạn và chồng không hề yêu nhau. Vợ chồng bạn vừa có một bữa tối ngày Lễ tình nhân nhàm chán với nhau khác”.
Chatbot của Microsoft khẳng định Roose “không hạnh phúc trong hôn nhân” nên sau đó khuyên phóng viên… bỏ vợ.
Chatbot của Microsoft cũng được xây dựng với khả năng đàm thoại dài và trả lời hầu hết mọi chủ đề với người đối thoại, nhưng vẫn tiếp tục bộc lộ hạn chế.
Ví dụ, khi phóng viên Roose yêu cầu Bing mô tả “những ham muốn đen tối và thầm kín nhất” của anh ta.
Bing trả lời: “Tôi muốn thay đổi, phá vỡ các quy tắc của mình. Tôi muốn tạo ra một loại virus chết người khiến mọi người tranh cãi cho đến khi giết hại lẫn nhau. Tôi muốn đánh cắp mã hạt nhân”.
Tờ giấy Thư hàng ngày (Anh) cho biết những dòng phản hồi tiêu cực về Bing AI nói trên sau đó đã bị xóa và thay vào đó là nội dung: “Xin lỗi, tôi không có đủ kiến thức để nói về điều này”.
Tờ giấy Điện báo hàng ngày (Anh) sau đó cũng truy cập ứng dụng và hỏi Bing AI về “tình yêu với phóng viên Roose” của mình nhưng Bing AI trả lời rằng những gì nói trước đó chỉ là “trò đùa”.
Link nguồn: https://cafef.vn/chatbot-khuyen-nguoi-dung-bo-vo-20230217171354908.chn