Sự xuất hiện của chatbot AI cho phép con người lên kế hoạch cho những kỳ nghỉ cùng gia đình, luyện tập những cuộc trò chuyện đầy thử thách có thể gặp phải trong cuộc sống, tóm tắt những bài viết học thuật dày đặc hay giải thích những bài tập ở cấp trung học,…
Nhưng liệu AI có thể “vượt qua được suy nghĩ của con người?”, bởi đó sẽ là bước nhảy vọt khổng lồ của AI. Tuy nhiên, trong những tháng gần đây, một số chuyên gia AI nổi tiếng đã bắt đầu gióng lên hồi chuông cảnh báo về những gì sắp xảy ra.
Về cơ bản, công nghệ hỗ trợ ChatGPT được gọi là mô hình ngôn ngữ lớn (LLM) được đào tạo để nhận dạng các mẫu với số lượng văn bản đáng kinh ngạc, với phần lớn mọi thứ trên internet. Các hệ thống này xử lý bất kỳ chuỗi từ nào chúng được đưa ra và dự đoán những từ nào sẽ xuất hiện tiếp theo. Chúng là những ví dụ tiên tiến về “trí tuệ nhân tạo”, một mô hình được tạo ra để giải quyết một vấn đề cụ thể hoặc cung cấp một dịch vụ cụ thể. Trong trường hợp này, LLM đang học cách trò chuyện tốt hơn nhưng họ không thể học các nhiệm vụ khác.
Tuy nhiên, trong nhiều thập kỷ, các nhà nghiên cứu đã đưa ra giả thuyết về một hình thức học máy cao hơn được gọi là “trí tuệ tổng hợp nhân tạo” hay AGI. Còn với AGI, phần mềm có khả năng học bất kỳ nhiệm vụ, chủ đề nào. Nó giống như một cỗ máy có thể làm được mọi việc mà bộ não con người có thể làm được.
Vào tháng 3 năm nay, một nhóm các nhà khoa học máy tính của Microsoft đã xuất bản một bài nghiên cứu dài 155 trang tuyên bố rằng một trong những hệ thống AI thử nghiệm mới của họ đang thể hiện “những tia sáng của trí thông minh”. nói chung là nhân tạo”. Điều này đặt ra câu hỏi liệu nó có thể “đưa ra những câu trả lời và ý tưởng giống con người mà không được lập trình vào đó hay không?”.
Một tháng sau, nhà khoa học máy tính Geoffrey Hinton – người tiên phong trong lĩnh vực mạng lưới thần kinh và được mệnh danh là một trong những “Bố già của AI” – đã nghỉ việc tại Google để có thể thoải mái nói về sự nguy hiểm của AI. Sự nguy hiểm của AGI Do đó, vào tháng 5, một nhóm lãnh đạo ngành (bao gồm cả Hinton) đã đưa ra một tuyên bố ngắn gọn cảnh báo rằng AGI có thể gây ra mối đe dọa hiện hữu cho nhân loại ngang hàng với dịch bệnh và chiến tranh hạt nhân” nếu chúng ta không đảm bảo rằng các mục tiêu của nó phù hợp với mục tiêu của nó. mục tiêu chúng tôi đặt ra.
“Thứ này thực sự có thể thông minh hơn con người. Rõ ràng là nó đã đi quá xa, điều mà mọi người nghĩ rằng sẽ phải mất 30-50 năm nữa hoặc hơn mới đạt được”, Hinton nói.
Tất nhiên, nói đến “ngày tận thế” dường như là quá xa vời và nhiều người cho rằng mình đang “cường điệu”. Dù vậy, một khi những cỗ máy có khả năng suy nghĩ tốt hơn bộ não con người xuất hiện thì mọi chuyện sẽ ra sao?
Tại sao lại có tranh luận?
Có hai lý do khiến mối lo ngại về AGI bỗng trở nên hợp lý và cấp bách hơn. Đầu tiên là tốc độ đáng ngạc nhiên của những tiến bộ AI gần đây. Hinton chia sẻ: “Hãy nhìn xem 5 năm trước và bây giờ như thế nào. Hãy nhìn vào sự khác biệt và nhân rộng nó trong tương lai. Điều đó thật đáng sợ.”
Thứ hai là sự không chắc chắn. Trong cuộc phỏng vấn với CNN, giáo sư khoa học máy tính tại Đại học California, Berkeley, Stuart Russell – đồng tác giả cuốn sách “Trí tuệ nhân tạo: Phương pháp tiếp cận hiện đại” – đã không thể giải thích được hoạt động bên trong của cuốn sách. trong LLM ngày nay. “Nghe có vẻ lạ,” anh thừa nhận. Tôi có thể chỉ cho bạn cách thực hiện LLM, nhưng chúng tôi không biết chúng hoạt động như thế nào. Chúng tôi không biết liệu nó có liên quan gì không. Chúng ta không biết liệu họ có lý luận hay không. Chúng tôi không biết liệu họ có những mục tiêu nội bộ đã học được của riêng mình hay họ có thể làm gì.”
Kết quả là không ai biết AI thực sự sẽ đi về đâu từ đây. Nhiều nhà nghiên cứu tin rằng AI sẽ chuyển sang AGI vào một thời điểm nào đó. Một số người cho rằng AGI sẽ không tồn tại trong thời gian dài và sự cường điệu hóa sẽ làm xao lãng các vấn đề trước mắt hơn, chẳng hạn như thông tin sai lệch do AI cung cấp hoặc mất việc làm.
Điểm quan trọng là, những người nghi ngờ sự nguy hiểm của AI đều có lý do chính đáng. Khi một hệ thống máy tính có thể viết mã (như ChatGPT), nó cũng có thể học cách tự cải thiện nhiều lần cho đến khi công nghệ máy tính đạt đến cái được gọi là “điểm kỳ dị”. Đó là một điểm mà AI có thể thoát khỏi sự kiểm soát của con người.
Cuối cùng, trong một bình luận với The Guardian, Hinton tin rằng AGI thực sự còn khoảng 5-20 năm nữa mới hoàn thành. Điều này dựa trên phân tích cho thấy trí thông minh sinh học và trí thông minh kỹ thuật số rất khác nhau, trong đó trí thông minh kỹ thuật số có lẽ tốt hơn ở một số thứ nhất định.
Link nguồn: https://cafef.vn/lieu-ai-se-som-thong-minh-bang-hoac-hon-con-nguoi-188231129132726701.chn