Các mô hình AI có dữ liệu chuyên sâu và cần lượng lớn sức mạnh tính toán để chạy. Điều này đặt ra một trở ngại đáng kể cho việc đào tạo và mở rộng các mô hình học máy, đặc biệt là khi nhu cầu về các ứng dụng AI tăng lên. Đây là lý do tại sao các nhà khoa học đang nỗ lực tạo ra các thành phần mới, từ bộ xử lý đến bộ nhớ máy tính, được thiết kế để tiêu thụ ít năng lượng hơn trong khi chạy các phép tính cần thiết.
Các nhà khoa học của Google đã tạo ra TPU vào năm 2015 để giải quyết thách thức này. Những con chip chuyên dụng này hoạt động như các bộ tăng tốc phần cứng chuyên dụng cho các phép toán tensor—các phép tính toán học phức tạp được sử dụng để đào tạo và chạy các mô hình AI. Bằng cách chuyển các tác vụ này ra khỏi bộ xử lý trung tâm (CPU) và bộ xử lý đồ họa (GPU), TPU cho phép đào tạo các mô hình AI nhanh hơn và hiệu quả hơn.
Tuy nhiên, không giống như TPU thông thường, chip mới là chip đầu tiên sử dụng ống nano carbon—cấu trúc hình trụ nhỏ được tạo thành từ các nguyên tử carbon được sắp xếp theo hình lục giác thay vì vật liệu bán dẫn truyền thống như silicon. Cấu trúc này cho phép các electron (hạt tích điện) chảy qua chúng với điện trở tối thiểu, khiến ống nano carbon trở thành chất dẫn điện tuyệt vời.
Theo các nhà khoa học Trung Quốc, TPU của họ chỉ tiêu thụ 295 microwatt (μW) điện năng (trong đó 1 W là 1.000.000 μW) và có thể thực hiện 1 nghìn tỷ phép tính trên mỗi watt — một đơn vị hiệu suất năng lượng. Điều này khiến TPU dựa trên carbon của Trung Quốc tiết kiệm năng lượng hơn chip của Google gần 1.700 lần.
“Từ ChatGPT đến Sora, trí tuệ nhân tạo đang mở ra một cuộc cách mạng mới, nhưng công nghệ bán dẫn dựa trên silicon truyền thống ngày càng không thể đáp ứng được nhu cầu xử lý lượng dữ liệu khổng lồ. Chúng tôi đã tìm ra giải pháp cho thách thức toàn cầu này”, Zhiyong Zhang, đồng tác giả của bài báo và là giáo sư điện tử tại Đại học Bắc Kinh cho biết.
TPU mới bao gồm 3.000 bóng bán dẫn ống nano carbon và được chế tạo bằng kiến trúc mảng tâm thu — một mạng lưới các bộ xử lý được sắp xếp theo dạng lưới. Điều này cho phép TPU thực hiện nhiều phép tính cùng một lúc bằng cách phối hợp luồng dữ liệu và đảm bảo rằng mỗi bộ xử lý thực hiện một phần nhỏ của tác vụ cùng một lúc.
Quá trình xử lý song song này cho phép thực hiện các phép tính nhanh hơn nhiều, điều này rất quan trọng đối với các mô hình AI xử lý lượng dữ liệu lớn. Nó cũng làm giảm tần suất mà bộ nhớ—cụ thể là một loại được gọi là bộ nhớ truy cập ngẫu nhiên tĩnh (SRAM)—cần phải đọc và ghi dữ liệu, Zhang cho biết. Bằng cách giảm thiểu các hoạt động này, TPU mới có thể thực hiện các phép tính nhanh hơn trong khi sử dụng ít điện năng hơn nhiều.
Trong tương lai, các nhà nghiên cứu cho biết, công nghệ dựa trên ống nano carbon tương tự có thể cung cấp giải pháp thay thế tiết kiệm năng lượng hơn cho chip dựa trên silicon. Họ cho biết họ có kế hoạch tiếp tục tinh chỉnh chip để cải thiện hiệu suất và làm cho nó có khả năng mở rộng hơn, bao gồm cả việc khám phá các cách tích hợp TPU vào CPU silicon.
Theo Khoa học sống
Link nguồn: https://cafef.vn/lan-dau-tien-trung-quoc-che-tao-chip-ai-ong-nano-carbon-chuyen-dung-188240908140140142.chn