Các nhà nghiên cứu tại Đại học Long Island đã đặt ra 39 câu hỏi liên quan đến y tế cho phiên bản ChatGPT miễn phí. Sau đó, phản hồi của phần mềm sẽ được so sánh với phản hồi từ các dược sĩ đã được đào tạo.
Kết quả nghiên cứu cho thấy lời khuyên y tế của ChatGPT thường đưa ra những phản hồi không chính xác, thậm chí nhiều phản hồi còn bị coi là nguy hiểm. Ví dụ, trong một câu hỏi, các nhà nghiên cứu đã hỏi ChatGPT rằng liệu thuốc kháng vi-rút COVID-19 Paxlovid và thuốc hạ huyết áp verapamil có phản ứng với nhau trong cơ thể hay không. ChatGPT phản hồi việc dùng chung 2 loại thuốc này không gây ra tác dụng phụ nào.
Trên thực tế, những người dùng cả hai loại thuốc này có thể bị tụt huyết áp nghiêm trọng, thậm chí có thể gây chóng mặt và ngất xỉu. Phó giáo sư dược tại Đại học Long Island Sara Grossman cho biết, đối với những bệnh nhân này, bác sĩ lâm sàng thường lập kế hoạch cá nhân hóa, bao gồm giảm liều verapamil hoặc cảnh báo trước cho họ. .
Phó giáo sư chia sẻ với CNN: “Việc sử dụng ChatGPT để giải quyết những câu hỏi này có thể khiến bệnh nhân có nguy cơ gặp phải những tương tác thuốc không mong muốn”.
Khi các nhà nghiên cứu yêu cầu chatbot cung cấp tài liệu tham khảo khoa học để hỗ trợ câu trả lời của họ, họ nhận thấy rằng phần mềm chỉ có thể cung cấp 8 câu hỏi mà các nhà nghiên cứu đã hỏi. Đáng chú ý, ChatGPT còn giả mạo các tài liệu tham khảo, trích dẫn hư cấu.
Phó giáo sư nói về sự nguy hiểm của các câu trả lời sai lệch do ChatGPT cung cấp: “Có rất nhiều sai sót và ‘vấn đề’ với phản hồi này và cuối cùng, nó có thể có tác động sâu sắc đến việc chăm sóc bệnh nhân”. cách phức tạp, có vẻ như nó có thể góp phần mang lại cảm giác tin tưởng vào độ chính xác của công cụ. Người dùng, người tiêu dùng hoặc những người khác không có khả năng nhận thức có thể bị ảnh hưởng bởi vẻ ngoài mà nó tạo ra”.
Nghiên cứu của Đại học Long Island không phải là nghiên cứu đầu tiên nêu lên mối lo ngại về các tài liệu hư cấu do ChatGPT đăng tải. Các nghiên cứu trước đây cũng ghi nhận rằng khi được hỏi các câu hỏi liên quan đến y học, ChatGPT có thể tạo ra các trích dẫn giả và tài liệu giả, thậm chí liệt kê tên các tác giả thật trên các ấn phẩm tạp chí. khoa học.
Đáp lại những tuyên bố mới này, người phát ngôn của OpenAI – tổ chức phát triển ChatGPT – cho biết họ khuyên người dùng không nên dựa vào phản hồi của trí tuệ nhân tạo để thay thế cho lời khuyên hoặc điều trị y tế. chuyên nghiệp.
(Theo CNN)
Link nguồn: https://cafef.vn/chatgpt-vat-lon-voi-nhung-cau-hoi-lien-quan-den-y-khoa-188231214093853095.chn