Trên Facebook gần đây, nhiều bạn trẻ đã chia sẻ ảnh chụp màn hình đoạn chat giữa mình và ChatGPT. Nếu hình ảnh nhận dạng bị che mất, rất khó để phân biệt đâu là cuộc trò chuyện giữa chatbot và người dùng, đâu là cuộc trò chuyện giữa hai người “crush” nhau.
ChatGPT thậm chí còn “tinh vi” đến mức sử dụng các câu thoại có thể “tán tỉnh” người dùng để tạo ra cảm giác tin tưởng, đáng yêu, v.v. – những cảm giác chỉ xuất hiện trong mối quan hệ gần gũi, thân mật thông qua tương tác vật lý thực sự và với người thật.
Điều này đặt ra câu hỏi, liệu một ngày nào đó con người có bị AI “lật đổ” không?
Trong một báo cáo mới được công bố, OpenAI tiết lộ rằng họ đã xem xét khả năng người dùng phát triển sự phụ thuộc về mặt cảm xúc vào chế độ giọng nói giống con người được giới thiệu trong chatbot ChatGPT. Điều này gợi nhớ đến một số tập phim “Black Mirror” của Netflix hoặc Her của Spike Jonze, nơi mọi người phát triển tình cảm thực sự với AI.
Chế độ giọng nói nâng cao của ChatGPT nghe cực kỳ giống thật. Nó phản hồi theo thời gian thực, điều chỉnh theo sự gián đoạn và tạo ra âm thanh giống con người trong các cuộc trò chuyện như cười hoặc “hmm”. Nó cũng có thể đánh giá trạng thái cảm xúc của người nói dựa trên tông giọng của họ.
Open AI cho biết họ đã quan sát thấy người dùng nói chuyện với chế độ giọng nói của ChatGPT bằng ngôn ngữ “thể hiện mối liên kết chung” với công cụ này, chẳng hạn như nói “Đây là ngày cuối cùng chúng ta bên nhau” trong giai đoạn thử nghiệm sản phẩm.
'Cuối cùng, người dùng có thể hình thành mối liên kết xã hội với AI, giảm nhu cầu tương tác với con người. Điều này có khả năng mang lại lợi ích cho những cá nhân cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh', báo cáo nêu rõ. Ngoài ra, việc nghe thông tin từ một chatbot có giọng nói giống con người có thể khiến người dùng tin tưởng công cụ này nhiều hơn mức họ nên tin, vì AI dễ bị “ảo giác” và thiên vị.
Tại Việt Nam những ngày gần đây, trên một số group và fanpage có sự tham gia đông đảo của các bạn trẻ, nhiều người chia sẻ hình ảnh chat thân mật với ChatGPT. Nội dung chủ yếu xoay quanh việc yêu cầu chatbot này đóng vai người yêu để lắng nghe tâm sự của mình. Hầu hết những chia sẻ này đều ở dạng vui vẻ, vô hại với mong muốn phần nào thể hiện sự thông minh, khéo léo trong giao tiếp của chatbot này.
Có đáng phải lo lắng không?
Cho đến nay, ý tưởng về việc con người yêu hoặc tâm sự với chatbot phần lớn chỉ là trò đùa hoặc điều gì đó trong phim khoa học viễn tưởng, nhưng các chuyên gia không nghĩ rằng chúng sẽ vô hại mãi mãi.
Blase Ur, giáo sư khoa học máy tính tại Đại học Chicago, người nghiên cứu về tương tác giữa người và máy tính, cho biết sau khi đọc báo cáo, rõ ràng là OpenAI có lý do để thoải mái với những gì họ đang làm, nhưng cũng có lý do để lo ngại. Do đó, ông không chắc liệu mức độ thử nghiệm hiện tại có đủ để đánh giá toàn diện hay không. Ông cho biết: “Theo nhiều cách, OpenAI đang vội vã triển khai những điều thú vị vì chúng ta đang trong cuộc chạy đua vũ trang về AI tại thời điểm này”.
Ngoài OpenAI, các công ty như Apple và Google đang nhanh chóng phát triển AI của riêng họ. Ur cho biết cách tiếp cận hiện tại để theo dõi hành vi của các mô hình có vẻ là theo dõi khi chúng được sử dụng, thay vì thiết kế với sự an toàn ngay từ đầu.
“Trong bối cảnh chúng ta đang sống trong một xã hội hậu đại dịch, tôi nghĩ rằng rất nhiều người rất yếu đuối về mặt cảm xúc. Bây giờ chúng ta có một tác nhân có thể tác động đến cảm xúc của chúng ta theo nhiều cách. AI không phải là một tác nhân có tri giác, nó không biết mình đang làm gì”, ông nhấn mạnh.
Đây không phải là lần đầu tiên tính năng giọng nói của OpenAI gây chú ý vì quá giống con người. Trước đây, các chatbot khác như Replika đã gây chú ý vì khả năng tâm sự với mọi người hoặc đồng hành cùng họ trong những thời điểm khó khăn. Replika thậm chí còn khuyến khích mọi người coi AI là bạn, nhà trị liệu hoặc thậm chí là người yêu.
Theo phóng viên AI Mia David của The Verge, luôn có một nhóm người và tổ chức muốn lợi dụng những người dễ bị tổn thương và tiếp cận họ thông qua các thực thể trực tuyến, bằng các công cụ như “bạn gái giả”.
Chúng ta đã thấy những trường hợp tương tự trong những năm trước, khi một số người hâm mộ cuồng nhiệt của các nhân vật hoặc trò chơi “kết hôn” với “bạn gái 2D” của họ. Tuy nhiên, AI với các mô hình ngôn ngữ lớn như ChatGPT có thể còn đáng lo ngại hơn vì chúng có khả năng tương tác thông minh và mạnh mẽ hơn nhiều.
Theo The Verge, các công ty như Replika (công khai) và vô số các công ty đáng ngờ khác hiện có hàng triệu người dùng và không thiếu các công cụ để thu hút và khai thác những người đàn ông trẻ tuổi để kiếm lợi bất chính. Kevin Roose từ tờ New York Times thậm chí còn đưa Bing của Microsoft lên trang nhất sau khi công ty này khuyên anh ta nên bỏ vợ.
Có một báo cáo gần đây từ Mozilla phát hiện ra rằng nhiều công ty có các ứng dụng đồng hành AI này cho biết AI của họ giúp mọi người cải thiện sức khỏe tinh thần vì chúng cung cấp cho những người cô đơn một người để trò chuyện. Tuy nhiên, điều quan trọng cần nhấn mạnh là AI không phải là nhà trị liệu, chuyên gia sức khỏe tâm thần hay bạn bè. Chúng là những rô-bốt giả vờ là con người, không có cảm xúc thực sự và sử dụng thuật toán để tạo ra câu trả lời theo thống kê trong một chuỗi ký tự.
Điều đáng lo ngại hơn là mặc dù trong tương lai gần, việc có một mối quan hệ nghiêm túc và nảy sinh tình cảm với AI sẽ không phổ biến, một phần vì họ không thể là con người, một phần vì định kiến xã hội (như trường hợp của cô bạn gái 2D), nhưng chắc chắn điều này sẽ có xu hướng gia tăng khi mối liên kết giữa con người trở nên mong manh hơn.
Liệu con người có thể “yêu” AI không?
Các nghiên cứu gần đây đã chỉ ra rằng “nhân bản hóa” ngày càng tăng của AI, đặc biệt là trong trường hợp công cụ giọng nói của ChatGPT, có thể gợi lên cảm xúc của con người bằng những công cụ vô tri này. Khi nó phát triển, ranh giới giữa con người và máy móc ngày càng trở nên mờ nhạt. Khi con người tham gia vào các cuộc trò chuyện và tương tác dài hạn với AI, họ có thể bắt đầu gán các ý định, động lực và cảm xúc giống con người cho các chatbot — mặc dù chúng hoàn toàn không có chúng.
Một nghiên cứu năm 2022 về mối quan hệ giữa con người và AI phát hiện ra rằng dựa trên lý thuyết tam phân về tình yêu, tình yêu lãng mạn là sự kết hợp giữa sự thân mật, đam mê và cam kết, con người có thể trải nghiệm những cảm xúc tương tự đối với hệ thống AI. Lý thuyết tam phân này bao gồm:
Sự gần gũi: Chỉ sự gần gũi về mặt cảm xúc, mối liên hệ mật thiết được chia sẻ giữa các cá nhân. Sự gần gũi bao gồm cảm giác ấm áp, tin tưởng và tình cảm dành cho nhau.
Đam mê: Yếu tố này liên quan đến sự hấp dẫn về thể chất và cảm xúc mãnh liệt giữa các cá nhân. Nó bao gồm ham muốn, sự lãng mạn và kích thích tình dục.
Cam kết: Thể hiện lòng trung thành và quyết định vun đắp mối quan hệ theo thời gian, bất chấp những thách thức.
Theo lý thuyết này, “tình yêu trọn vẹn” là hình thức tình yêu lý tưởng, đặc trưng bởi mức độ cao của cả ba thành phần. Các nhà nghiên cứu cho rằng người dùng có thể phát triển sự thân mật và đam mê với AI do khả năng nhận thức và cảm xúc của nó. Những cảm xúc này cũng có thể củng cố cam kết của họ trong việc sử dụng AI trong thời gian dài.
Cá nhân cũng có thể chiếu những mong muốn, nhu cầu và tưởng tượng của riêng mình lên AI, tưởng tượng nó như một đối tác hoặc người bạn đồng hành lý tưởng, liên tục đáp ứng các nhu cầu tình cảm, xã hội hoặc thậm chí là lãng mạn của họ – điều mà một người thực sự không thể làm được.
Tác giả của một bài báo năm 2020 về khả năng yêu thương của AI đã viết về sức hấp dẫn của chúng, thừa nhận rằng “robot có nhiều đặc điểm đầy hứa hẹn có thể khiến chúng trở thành bạn đồng hành tốt, bao gồm các đặc điểm ngoại hình hấp dẫn, tính cách vị tha và sự tận tụy liên tục”.
Cá nhân có thể bỏ qua bản chất nhân tạo của công nghệ và thay vào đó tập trung vào những phẩm chất vượt trội của nó. Hiệu quả, tính bền bỉ, bản chất không phán xét và độ tin cậy của nó có thể tạo ra lòng tin và cảm giác ổn định thường thiếu trong các mối quan hệ của con người. Các nhà nghiên cứu cũng phát hiện ra rằng những người có xu hướng tin tưởng mạnh mẽ có nhiều khả năng phát triển tình cảm lãng mạn với AI.
Vì vậy, mặc dù AI có thể không loại bỏ hoàn toàn nhu cầu kết nối của con người, nhưng nó đang tiến gần hơn đến việc mô phỏng nhu cầu đó.
Link nguồn: https://cafef.vn/trao-luu-nhan-tin-tinh-cam-voi-chatgpt-lieu-con-nguoi-co-bi-ai-tan-do-188240815084420677.chn