Thông báo này được đưa ra một tháng sau khi hội đồng quản trị của công ty sa thải Giám đốc điều hành (CEO) Sam Altman và thuê ông trở lại vài ngày sau đó vì phản đối từ nhân viên và nhà đầu tư.
Theo truyền thông Mỹ, các thành viên hội đồng OpenAI chỉ trích ông Altman vì ông ủng hộ sự phát triển nhanh chóng của OpenAI bất chấp những rủi ro có thể xảy ra với công nghệ mà công ty phát triển.
Tháng 10 năm ngoái, công ty cho biết nhóm giám sát và đánh giá sẽ tập trung vào các “mô hình biên giới” đang được phát triển có khả năng hoạt động tốt hơn phần mềm AI tiên tiến nhất. Nhóm sẽ đánh giá từng mô hình mới và xác định mức độ rủi ro từ “thấp” đến “nghiêm trọng” theo bốn cấp độ. Theo hướng dẫn ở trên, chỉ những mô hình có điểm rủi ro ở mức “trung bình” trở xuống mới có thể được triển khai.
Mức độ rủi ro đầu tiên liên quan đến an ninh mạng và khả năng thực hiện các cuộc tấn công mạng quy mô lớn của mô hình. Cấp độ thứ hai sẽ đo lường xu hướng của phần mềm trong việc giúp tạo ra các hỗn hợp hóa học, sinh vật sinh học (như virus) hoặc vũ khí hạt nhân, có thể gây hại cho con người. Cấp độ thứ ba liên quan đến sức mạnh thuyết phục của mô hình, chẳng hạn như mức độ nó có thể ảnh hưởng đến hành vi của con người. Mức độ rủi ro cuối cùng liên quan đến khả năng tự chủ tiềm tàng của mô hình, cụ thể là liệu mô hình có thể thoát khỏi sự kiểm soát của các lập trình viên đã tạo ra nó hay không.
Sau khi xác định được mức độ rủi ro, kết quả sẽ được gửi đến Nhóm Cố vấn An toàn của OpenAI, một cơ quan mới của OpenAI sẽ đưa ra khuyến nghị cho ông Altman hoặc người được ông chỉ định. Người đứng đầu OpenAI sau đó sẽ quyết định mọi thay đổi cần thực hiện đối với mô hình để giảm thiểu rủi ro liên quan. Hội đồng quản trị sẽ được thông báo đầy đủ và có thể bác bỏ quyết định trên.
Link nguồn: https://cafef.vn/openai-cong-bo-huong-dan-danh-gia-rui-ro-ai-188231220072408302.chn