Theo nguồn tin của Tech.co, trong khi vụ bê bối CEO Sam Altman bị sa thải rồi quay lại OpenAI diễn ra, một trong những tin đồn nảy sinh đó là về một lá thư được các nhà nghiên cứu của công ty gửi tới ban điều hành. , bày tỏ lo ngại về việc mô hình siêu trí tuệ AI đang được phát triển có khả năng gây ra mối đe dọa cho nhân loại.
Dự án Q*
Mô hình này, được gọi nội bộ là Project Q* (phát âm là Q-star), được cho là đại diện cho một bước đột phá lớn trong việc theo đuổi trí tuệ nhân tạo chung (AGI) của OpenAI. một nhánh siêu trí tuệ có tính tự trị cao, có khả năng học tập tích lũy và vượt trội hơn con người trong hầu hết các nhiệm vụ.
Theo những người thân cận với nguồn tin, Q* có thể đánh dấu một bước nhảy vọt lớn trong lĩnh vực trí tuệ nhân tạo bằng cách cải thiện triệt để khả năng suy luận của AI và đưa OpenAI đến gần hơn với một bước đột phá lớn. trong quá trình phát triển AGI.
Không giống như các mô hình AI hiện tại tập trung vào khả năng tạo ra phản hồi dựa trên thông tin đã học trước đó, AGI là một hệ thống tự trị có thể áp dụng “lý trí” cho các quyết định, dẫn đến khả năng giải quyết vấn đề ở cấp độ con người.
Mặc dù AGI vẫn chưa được hiện thực hóa đầy đủ nhưng nhiều chuyên gia tin rằng công nghệ này cũng sẽ có khả năng học tập tích lũy, một đặc điểm khác giúp con người có khả năng tự hoàn thiện bản thân.
Một số nguồn tin cho rằng dự án Q* – OpenAI đã có thể chứng minh được những đặc tính trên khi giải quyết vấn đề. Không chỉ vậy, nhờ sức mạnh tính toán khổng lồ của mô hình, Q* còn có khả năng vượt trội so với học sinh tiểu học, thể hiện kỹ năng suy luận và khả năng nhận thức đáng kể so với các chức năng của công nghệ AI hiện tại.
Không rõ Q* đã được phát triển trong bao lâu và ứng dụng của nó có thể là gì, nhưng OpenAI đã thông báo ngắn gọn cho nhân viên và thành viên hội đồng quản trị về dự án trước khi vụ bê bối nhân sự nổ ra. đi ra ngoài.
Mối quan tâm về đạo đức
Trong khi Giám đốc điều hành OpenAI Sam Altman cảm thấy tự tin rằng công nghệ AGI sẽ thúc đẩy sự đổi mới, một số nhà nghiên cứu đã nhanh chóng chỉ ra những mối nguy hiểm tiềm ẩn của dự án.
Trong thư gửi ban điều hành, các nhà nghiên cứu đã cảnh báo về mối nguy hiểm tiềm tàng của thuật toán mạnh mẽ này đối với nhân loại. Những lo ngại cụ thể về đạo đức AI được ghi trong thư không được tiết lộ, nhưng những cảnh báo này đủ để biện minh cho quyết định sa thải Altman của hội đồng quản trị.
Trong khi đó, lý do ban đầu được đưa ra để sa thải Altman là do CEO “giao tiếp kém”. Không lâu sau, anh tìm được vị trí mới tại Microsoft. Hành động này đã khiến 700 trong số 770 nhân viên của OpenAI đe dọa sẽ làm điều tương tự nếu CEO không được phục hồi.
Với việc công ty có nguy cơ sụp đổ, ban giám đốc của OpenAI buộc phải tái bổ nhiệm Altman vào vị trí đứng đầu – điều này cũng dẫn đến một cuộc đại tu lớn trong ban điều hành của công ty và làm nổi bật sự chia rẽ sâu sắc trong ban lãnh đạo.
Bây giờ Altman đã quay trở lại và Dự án Q* có thể sẽ được bật đèn xanh trở lại, điều này đặt ra những câu hỏi mới.
Dự án Q* thực tế đến mức nào?
Trong khi những ngày hỗn loạn tại OpenAI khiến khái niệm AGI trở nên nổi bật, đây không phải là lần đầu tiên Altman đề cập đến công nghệ này.
Vào tháng 9, doanh nhân ở Thung lũng Silicon nhận thấy mình rơi vào tình thế khó khăn sau khi so sánh AGI với “một người bình thường mà bạn có thể thuê làm đồng nghiệp”. Anh ấy tiếp tục xác nhận những nhận xét mà anh ấy đã đưa ra vào năm ngoái về cách AI này có thể “làm bất cứ điều gì bạn có thể khi bạn có một đồng nghiệp ở xa”, bao gồm cả việc học cách Trở thành bác sĩ và một lập trình viên giỏi.
Mặc dù so sánh AGI với trí thông minh của một “con người bình thường” không có gì mới, nhưng việc Altman sử dụng cụm từ này đã bị các nhà đạo đức AI và giáo sư Đại học Cambridge Henry Shevlin chỉ trích. được coi là “kinh tởm” khi mối lo ngại xung quanh tác động của AI đối với an ninh công việc ngày càng gia tăng.
Những đột phá tiềm tàng đối với AGI cũng đang gióng lên hồi chuông cảnh báo cho các nhà nghiên cứu khác – về việc công nghệ này đang được phát triển nhanh hơn mức con người có thể đánh giá đầy đủ về tác động. Nó.
OpenAI tin rằng kết quả tích cực của AGI khiến bãi mìn đầy rủi ro này đáng để thử. Tuy nhiên, khi công ty tiếp tục phát triển theo hướng này, nhiều người lo lắng rằng Altman đang ưu tiên thành công thương mại hơn lợi ích của người dùng và xã hội.
Nguồn: Tech.co, The Guardian
Link nguồn: https://cafef.vn/mo-hinh-sieu-tri-tue-dang-sau-lum-xum-cua-openai-188231201073018248.chn