Nvidia đang thu về gần 1.000% lợi nhuận cho mỗi GPU AI H100 chuyên dụng mà họ bán ra. Đây là ước tính được đưa ra trong một bài đăng trên mạng xã hội gần đây của Tae Kim, một phóng viên kỳ cựu của trang tin tài chính và đầu tư nổi tiếng Barron.
Theo đó, nếu quy đổi ra một số tiền cụ thể (USD), giá thị trường của mỗi chiếc Nvidia H100 sẽ được bán với giá từ 25 – 30.000 – 40.000 USD (tức khoảng 952 triệu đồng) cao hơn gấp nhiều lần so với giá thị trường. với chi phí sản xuất ước tính của mẫu GPU này. Theo đó, H100 được cho là có chi phí sản xuất khoảng 3320 USD/chiếc (tức khoảng 79 triệu đồng), bao gồm các chi phí liên quan đến chip nhớ HBM trên bo mạch.
Được biết, chi phí ước tính của chip H100 nói trên được phóng viên Tae Kim trích dẫn từ nguồn tin của công ty tư vấn tài chính Raymond James. Tuy nhiên, vẫn chưa rõ phân tích chi phí này chi tiết đến mức nào.
Nếu con số này chỉ là chi phí sản xuất thuần túy (tính trung bình giá trên mỗi tấm wafer và các thành phần khác, trong khi tính đến sản lượng), Nvidia vẫn phải trả một khoản chi phí đáng kể cho mỗi H100. vận chuyển và giao tận tay người dùng.
Về cơ bản, việc phát triển sản phẩm tốn rất nhiều thời gian và nguồn lực. Chưa kể, chi phí R&D và chi phí nhân sự liên quan đến việc phát triển một sản phẩm như H100 cũng cần phải được tính đến trước khi tính chi phí phát triển sản phẩm cuối cùng trung bình.
Theo Glassdoor, mức lương trung bình tại Nvidia cho một kỹ sư phần cứng điện tử là khoảng 202.000 USD mỗi năm. Thông thường, việc phát triển những con chip như H100 đòi hỏi hàng nghìn giờ làm việc của rất nhiều chuyên gia cấp cao. Tất cả điều đó cũng phải được tính đến.
Mặc dù vậy, không thể phủ nhận rằng Nvidia có những lợi thế khi được mặc định là tên gọi dành cho các GPU chuyên dụng có khả năng xử lý các tác vụ AI. Theo nhiều nguồn tin khác nhau, GPU chuyên dụng của Nvidia đang bán chạy đến mức các đơn đặt hàng trước đã cháy hàng cho đến tận năm 2024.
Trong khi đó, các công ty AI đang cố gắng đảm bảo có đủ GPU để cung cấp năng lượng cho các mô hình sản xuất và phát điện do AI cung cấp. Foxconn dự đoán rằng thị trường máy chủ AI sẽ đạt 150 tỷ USD vào năm 2027 và những máy chủ AI tối tân này phụ thuộc rất nhiều vào sức mạnh tính toán mạnh mẽ của phần cứng Nvidia mới nhất.
GPU H100 dựa trên vi kiến trúc Hopper, được thiết kế để sử dụng trong các trung tâm dữ liệu, chống lại kiến trúc Ada Lovelace hỗ trợ thế hệ GPU chơi game GeForce RTX mới nhất. Tuy nhiên, trọng tâm chính của Hopper không phải là chơi game. H100 được trang bị GPU GH100 đã được sửa đổi có 14.592 lõi CUDA và 80GB RAM HBM3 với bus bộ nhớ 5.120-bit.
Tham khảo Tomshardware
Link nguồn: https://cafef.vn/mot-san-pham-ti-hon-cua-nvidia-chi-ton-79-trieu-dong-de-san-xuat-ban-ra-voi-gia-gan-1-ty-dong-18823082214282885.chn