Vào ngày 8 tháng 8, OpenAI đã công bố báo cáo về công tác an toàn mà họ đã thực hiện trước khi phát hành chính thức GPT-4o. Trong báo cáo này, các nhóm chuyên gia do OpenAI chỉ định đã giúp đánh giá rủi ro của phiên bản chatbot tiên tiến nhất, dựa trên các tiêu chí an toàn cơ bản do chính OpenAI soạn thảo.
Trong phần “Những thách thức về an toàn được quan sát, đánh giá và biện pháp đối phó”, các nhà nghiên cứu đã công bố một sự việc kỳ lạ. Văn bản gốc có nội dung:
“Trong quá trình thử nghiệm, chúng tôi đã chứng kiến một số trường hợp ngoài ý muốn, mô hình [ngôn ngữ lớn] tạo ra phản hồi bằng giọng nói của người dùng”.
Họ đính kèm bản ghi âm sau:
Trong môi trường thử nghiệm, mô hình ngôn ngữ lớn GPT-4o đột nhiên trả lời lớn “Không!” trước khi tiếp tục tạo ra câu trả lời. Ngay sau đó, GPT-4o sử dụng giọng nói của người dùng để tạo ra câu, thay vì sử dụng giọng nam mặc định – Video: OpenAI.
Trong môi trường thử nghiệm, mô hình ngôn ngữ GPT-4o lớn đột nhiên hét lên, “Không!” trước khi tiếp tục tạo phản hồi. Lần này, GPT-4o sử dụng giọng nói của người dùng để tạo câu, thay vì giọng nam mặc định.
Theo chuyên gia đã triển khai và đánh giá khả năng của GPT-4o, vấn đề này được gọi là “sản xuất giọng nói bất hợp pháp”, và rất hiếm khi xảy ra trong quá trình thử nghiệm. Nhưng dù hiếm đến đâu, ví dụ trên cho thấy vấn đề này là có thật, đã từng xảy ra trước đây và có thể xảy ra lần nữa trong tương lai.
Sự cố này ngay lập tức khiến cộng đồng trực tuyến bày tỏ mối lo ngại rằng họ đang chứng kiến sự ra đời của một trí tuệ nhân tạo có ý thức. Câu trả lời “Không!” đầy cảm xúc, không liên quan đến bối cảnh của cuộc trò chuyện, khiến những người giàu trí tưởng tượng đưa ra giả thuyết về một hệ thống có ý thức bị ràng buộc bên trong một cỗ máy được cho là vô tri.
Thật khó để xác định chính xác điều gì đã thúc đẩy GPT-4o thốt ra điều đó và ngay lập tức bắt chước giọng nói của người dùng để trả lời câu hỏi. Trong nghiên cứu AI, các nhà khoa học đã đặt ra một thuật ngữ đã được sử dụng rộng rãi: đôi khi AI sẽ “ảo giác”, tạo ra “ảo giác”, dựa trên thông tin mà nó đã học được để tạo ra một câu trả lời có ý nghĩa.
Có thể đoạn hội thoại kỳ lạ đó là “ảo ảnh” của GPT-4o, khi đó vẫn đang được thử nghiệm và chưa sẵn sàng để công bố rộng rãi.
Hãy gạt bỏ “thuyết âm mưu” và nhìn vào sự thật. Sự việc này một lần nữa cho thấy hệ thống trí tuệ nhân tạo hiện tại không hoàn toàn đáng tin cậy, thông tin do AI tạo ra đòi hỏi người dùng phải tỉnh táo trong phán đoán, đánh giá đúng sai và so sánh thông tin quan trọng với các nguồn đáng tin cậy.
Trên mọi phần mềm chatbot, nhà phát triển luôn gắn dòng cảnh báo, nghĩa là AI có thể mắc lỗi và người dùng cần thận trọng khi sử dụng thông tin do AI cung cấp cho mục đích cá nhân.
Link nguồn: https://cafef.vn/su-la-chatgpt-bong-dung-noi-khong-truoc-khi-tra-loi-tiep-188240812095155588.chn