CNN trích dẫn báo cáo mới công bố của OpenAI về đánh giá an toàn bằng công cụ ChatGPT.
Giọng nói của ChatGPT được cho là nghe rất thật. Nó phản hồi theo thời gian thực, có thể điều chỉnh theo sự gián đoạn và tạo ra những âm thanh mà con người tạo ra khi trò chuyện, như cười hoặc “hmm”. Nó cũng có thể đánh giá trạng thái cảm xúc của người nói dựa trên tông giọng của họ.
Vài phút sau khi OpenAI công bố tính năng giọng nói tại một sự kiện đầu năm nay, nó đã được so sánh với tình huống trong bộ phim “Her” năm 2013. Trong phim, nhân vật chính phải lòng một giọng nói AI, nhưng lại đau khổ khi “cô ấy” (giọng nói AI) thừa nhận có mối quan hệ với hàng trăm người dùng khác.
Báo cáo cho biết OpenAI có vẻ lo ngại rằng câu chuyện hư cấu này quá gần với thực tế, sau khi quan sát thấy nhiều người dùng trò chuyện với ChatGPT bằng ngôn ngữ “thể hiện mối liên kết chung” với công cụ này.
Cuối cùng, “người dùng có thể hình thành mối quan hệ xã hội với AI, giảm nhu cầu tương tác với người thật. Điều này có khả năng mang lại lợi ích cho những cá nhân cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh”, báo cáo nêu rõ.
Báo cáo cũng nói thêm rằng việc nghe thông tin từ một chatbot có giọng nói giống con người có thể khiến người dùng tin tưởng vào công cụ này nhiều hơn mức cần thiết, điều này rất nguy hiểm vì AI có xu hướng đưa ra thông tin sai.
Báo cáo nhấn mạnh một rủi ro lớn khác liên quan đến trí tuệ nhân tạo: các công ty công nghệ đang chạy đua triển khai nhanh chóng các công cụ AI mà họ cho rằng có thể làm đảo lộn cách mọi người sống, làm việc, giao lưu và tìm kiếm thông tin.
Giám đốc điều hành ChatGPT Sam Altman cam kết xây dựng AI “một cách an toàn”, nhưng nhiều chuyên gia công nghệ đang bày tỏ lo ngại về các công cụ như ChatGPT
Nhưng thực tế là Big Tech đang làm điều này trước khi bất kỳ ai thực sự hiểu điều gì sẽ xảy ra. Cũng như nhiều tiến bộ công nghệ khác, các công ty thường có ý tưởng về cách sử dụng các công cụ của họ. Nhưng thực tế thường không như ý tưởng đó, với người dùng cực kỳ đa dạng và thường có những hậu quả không mong muốn.
Một số người đã hình thành “mối quan hệ lãng mạn” với chatbot AI, điều này khiến các chuyên gia lo ngại.
Liesel Sharabi, giáo sư tại Đại học bang Arizona chuyên nghiên cứu về công nghệ và giao tiếp giữa con người, chia sẻ với CNN: “Các công ty có trách nhiệm rất lớn trong việc điều hướng câu chuyện theo cách có đạo đức và có trách nhiệm. Hiện tại, mọi thứ vẫn đang trong giai đoạn thử nghiệm”.
Bà nói thêm: “Tôi lo ngại về việc mọi người hình thành mối liên hệ thực sự sâu sắc với một công nghệ có thể không tồn tại lâu dài và không ngừng phát triển”.
OpenAI cho biết theo thời gian, tương tác của người dùng với ChatGPT có thể ảnh hưởng đến những gì được coi là bình thường trong các tương tác xã hội.
Công ty cho biết trong báo cáo: “Các mô hình của chúng tôi rất tôn trọng người dùng, cho phép người dùng ngắt lời và 'cầm mic' bất cứ lúc nào, mặc dù điều này được mong đợi ở AI, nhưng lại trái với chuẩn mực trong tương tác giữa con người”.
Hiện tại, OpenAI cho biết họ cam kết xây dựng AI một cách “an toàn” và có kế hoạch tiếp tục nghiên cứu khả năng “phụ thuộc về mặt cảm xúc” của người dùng vào các công cụ của họ.
Link nguồn: https://cafef.vn/openai-lo-ngai-ve-tinh-yeu-voi-ai-188240809164338292.chn