Khi Nvidia dẫn đầu trong việc chiếm lĩnh thị trường chip sức mạnh tính toán mô hình lớn AI, nó có giá trị thị trường vượt quá một nghìn tỷ đồng. Cùng lúc đó, Intel, AMD và các hãng chip GPU Trung Quốc cũng đang âm thầm cạnh tranh, hy vọng giành được thị phần trên thị trường chip điện toán AI.
**Vào ngày 19 tháng 9, tại hội nghị đổi mới công nghệ Intel On được tổ chức tại San Jose, Hoa Kỳ, **Giám đốc điều hành Intel 62 tuổi Pat Gelsinger đã "tràn đầy năng lượng" và bắt đầu bài phát biểu của mình bằng động tác chống đẩy.
Tại cuộc họp này, Gelsinger đã đồng loạt tung ra hàng loạt sản phẩm công nghệ mới: bộ vi xử lý Intel Core Ultra dựa trên tiến trình Intel 4 (5nm), tên mã “Meteor Lake”; xem trước chip máy chủ Xeon thế hệ thứ năm và các sản phẩm Xeon tiếp theo Lộ trình ; tiết lộ chip AI 5nm Gaudi 3, v.v.
Giám đốc điều hành Intel Pat Gelsinger thực hiện động tác chống đẩy ngay tại chỗ
So với các buổi trước, lần này Kissinger “hóa thành ông già bọc da” và nói về vai trò của sức mạnh tính toán AI đối với nền kinh tế trong gần 2 tiếng đồng hồ. Theo thống kê của TMTpost App, Kissinger đã đề cập đến các thuật ngữ liên quan đến “trí tuệ nhân tạo” và “học sâu” khoảng 200 lần trong bài phát biểu này.
Gần như cùng lúc, Intel và đối thủ của Nvidia là AMD đã tung ra chip CPU (bộ xử lý trung tâm) EPYC 8004 mới nhất và dự kiến sẽ xuất xưởng chip AI dòng MI300 trước cuối năm nay để cạnh tranh với Nvidia. Ngoài ra, tại Trung Quốc, các nhà sản xuất chip AI bao gồm Huawei và Tianshu Zhixin cũng đang tích cực triển khai các sản phẩm sức mạnh điện toán AI và suy luận đào tạo mô hình lớn.
"Chúng tôi cạnh tranh rất khốc liệt với NVIDIA, công ty dẫn đầu thị trường về chip điện toán AI. Nhưng cả Gaudi2 và Gaudi3 đều là một bước tiến lớn so với họ. Chúng tôi đang có được động lực và thị trường bắt đầu nhận ra rằng trong số những công ty dẫn đầu về AI Ngành công nghiệp chip còn có một cơ hội khác", Kissinger nói với CNBC hôm 20/9.
Thị trường cạnh tranh ngày càng gay gắt, “Lão Hoàng” khó độc chiếm hàng nghìn tỷ sức mạnh tính toán AI
Từ năm 2023 đến nay, “cơn sốt” các mô hình lớn AI do ChatGPT đại diện đã càn quét thế giới, các mô hình lớn đang thúc đẩy sự phát triển của AI theo hướng tổng quát hơn.
Đồng thời, sự khan hiếm và chi phí cao của sức mạnh tính toán đã trở thành yếu tố cốt lõi hạn chế sự phát triển của AI. Sức mạnh tính toán cũng đã trở thành nền tảng quan trọng của quá trình chuyển đổi kỹ thuật số và thông minh của toàn xã hội, do đó thúc đẩy nhu cầu về sức mạnh tính toán thông minh tăng vọt.
Theo dữ liệu do Giám đốc điều hành AMD Lisa Su cung cấp, tổng thị trường tiềm năng cho máy tăng tốc AI của trung tâm dữ liệu toàn cầu sẽ đạt khoảng 30 tỷ USD vào năm 2023 và con số này dự kiến sẽ vượt 150 tỷ USD vào năm 2027 ((khoảng 1,095 nghìn tỷ RMB), với tốc độ tăng trưởng kép hàng năm trên 50%.
Manuvir Das, phó chủ tịch phụ trách điện toán doanh nghiệp tại Nvidia, đưa ra một bộ dữ liệu khác cho thấy thị trường tiềm năng (TAM) cho AI dự kiến sẽ tăng lên 600 tỷ USD. Trong số đó, chip và hệ thống có thể nhận được 300 tỷ đô la Mỹ, phần mềm AI tổng quát có thể nhận được 150 tỷ đô la Mỹ và 150 tỷ đô la Mỹ còn lại sẽ do phần mềm doanh nghiệp NVIDIA đóng góp.
**Rõ ràng, thị trường chip điện toán AI là một “chiếc bánh” lớn. **
Nhưng hiện tại, NVIDIA chiếm 82% thị trường tăng tốc AI trung tâm dữ liệu toàn cầu và độc quyền thị trường đào tạo AI toàn cầu với 95% thị phần, trở thành người chiến thắng lớn nhất trong vòng hỗn chiến AI này. Huang Renxun và công ty Nvidia của ông đang kiếm được rất nhiều tiền, với giá trị thị trường hơn 1 nghìn tỷ đô la Mỹ.
Đồng thời, nhu cầu sức mạnh tính toán tăng vọt đã trực tiếp khiến GPU (bộ xử lý đồ họa) của NVIDIA "khó tìm". Số lượng card đồ họa Nvidia A100 đã trở thành tiêu chuẩn để đo lường sức mạnh tính toán của một công ty.
**Trên thực tế, nếu một công ty muốn phát triển một mẫu lớn đa năng thì trước tiên phải chú ý đến hai điểm về khả năng tính toán: số lượng và giá cả của card đồ họa. **
**Trong số đó, xét về số lượng card đồ họa, **OpenAI sử dụng 10.000-30.000 GPU NVIDIA để đào tạo mô hình GPT-3.5. Theo báo cáo mới nhất từ TrendForce, nếu tính dựa trên sức mạnh xử lý của card đồ họa NVIDIA A100, việc chạy ChatGPT có thể sẽ phải sử dụng tới 30.000 card đồ họa GPU NVIDIA. Ngoài ra, về mặt mô hình nguồn mở, mô hình Llama được đào tạo trên 2048 chiếc A100 80GB và toàn bộ sức mạnh tính toán đào tạo gần bằng 2000 sức mạnh tính toán PTOPS.
Về giá cả, giá H800 hiện có tại Trung Quốc lên tới 200.000/chiếc, trong khi giá A100/A800 đã tăng lên khoảng 150.000 và 100.000/chiếc. Lấy yêu cầu về sức mạnh tính toán 2000P làm ví dụ, GPU H800 có sức mạnh tính toán của một thẻ là 2P và cần 1.000 card đồ họa. Giá ước tính của toàn bộ thẻ là 200 triệu nhân dân tệ, sức mạnh tính toán của một thẻ A800 là khoảng 0,625P và số lượng yêu cầu là 3.200 card đồ họa, giá ước tính của toàn bộ card đồ họa lên tới 320 triệu nhân dân tệ.
Ngoài việc mua card đồ họa GPU, máy chủ cũng cần quan tâm đến cấu hình và tính toán của toàn bộ máy, bao gồm CPU, bộ lưu trữ, kết nối giao tiếp NV-Link, v.v. cũng như các yếu tố như điện năng tiêu thụ, thuê địa điểm, và chi phí vận hành và bảo trì.
Hiện tại, máy chủ A800 và H800 chủ yếu là model 8 card, để đáp ứng sức mạnh tính toán 2000 P cần cấu hình 125 máy chủ H800 8 card hoặc 400 máy chủ A800 8 card, giá 300 triệu nhân dân tệ và 560 triệu nhân dân tệ tương ứng. Hơn nữa, do H800 còn hỗ trợ PCIe 5.0, thế hệ CPU và bộ nhớ mới nên giá thành cần phải tăng lên để đạt được hiệu năng tính toán tối ưu.
Do đó, từ góc độ đào tạo mô hình lớn, tổng chi phí mua H800 thấp hơn A800, tiết kiệm chi phí hơn và thấp hơn chi phí xây dựng CPU, đây là điều mà Giám đốc điều hành Nvidia Jen-Hsun Huang thường nói gần đây: "Mua càng nhiều thì càng tiết kiệm chi phí", bạn càng tiết kiệm được nhiều."
Tất nhiên, không thành vấn đề nếu bạn thực sự không đủ khả năng chi trả. NVIDIA cũng đã chu đáo ra mắt dịch vụ cho thuê trực tuyến, hệ thống điện toán siêu AI DGX, dành cho các doanh nghiệp thông qua hình thức cho thuê, được trang bị 8 GPU H100 hoặc A100, mỗi nút có bộ nhớ 640GB và giá thuê hàng tháng là 37.000 USD. nên không cần phải tự xây dựng dữ liệu Trung tâm mua số lượng lớn card đồ họa GPU. Hình thức cho thuê này có tỷ suất lợi nhuận gộp cao, theo báo cáo về dịch vụ “Cho thuê điện toán đám mây” của Microsoft, tỷ suất lợi nhuận gộp của mảng kinh doanh này cao tới 42%, trở thành “con bò sữa” mới của Microsoft. .
Tại thị trường trong nước, InBev Digital, SenseTime AIDC và hơn 11 nhà cung cấp trung tâm điện toán/đám mây thông minh khác cũng cung cấp dịch vụ tương tự, đối với các mẫu lớn, giá tổng thể thấp hơn 20% so với giá tự xây dựng.
**Ngoài ra còn có thời gian đào tạo cho model lớn. **GPU NVIDIA L40S mới phát hành của NVIDIA có hiệu quả đào tạo cao hơn mẫu A800/H800. Một model có 7 tỷ thông số phải mất 17 giờ để chạy trên HGX A800, trong khi L40S nhanh hơn 1,3 lần và có thể chạy chỉ trong nửa ngày, chưa kể một model có 175 tỷ thông số có thể tập luyện trong một ngày cuối tuần với L40S. .
Nhìn chung, nếu một công ty muốn xây dựng một mô hình lớn, họ sẽ phải chi hàng trăm triệu nhân dân tệ cho chi phí điện năng tính toán và đây chỉ là "tấm vé".
Trước đó có thông tin cho rằng Baidu, Bytedance, Tencent và Alibaba đã đặt hàng chip trị giá 5 tỷ USD từ Nvidia. Cộng thêm số lượng card đồ họa đã tích trữ trước đó, tổng số card đồ họa GPU Nvidia ở Trung Quốc đã vượt quá 100 tỷ nhân dân tệ. Tổ chức nghiên cứu thị trường Counterpoint đưa ra một báo cáo cho biết, bất chấp sự suy thoái theo chu kỳ trong ngành bán dẫn, các công ty Trung Quốc như Tencent và Baidu vẫn đang mua chip Nvidia A800 với số lượng lớn.
**Vì vậy, trong một thị trường nghìn tỷ quan trọng như vậy, cả công ty chip lẫn khách hàng hạ nguồn đều không muốn thấy "NVIDIA" thống trị. Vì vậy, AMD, Intel và các hãng chip GPU Trung Quốc đã nỗ lực thách thức sự thống trị của Nvidia trên thị trường chip AI. **
**AMD tấn công đầu tiên. **
Về chip AI, tại Triển lãm Điện tử Tiêu dùng (CES) 2023 diễn ra vào tháng 1 năm nay, Chủ tịch kiêm Giám đốc điều hành AMD Lisa Su đã chính thức trình làng sản phẩm APU (bộ xử lý tăng tốc) thế hệ tiếp theo Instinct MI300 dành cho trung tâm dữ liệu, sử dụng kết hợp TSMC 5nm + 6nm Thiết kế kiến trúc Chiplet, tích hợp CPU và GPU, với 13 chip nhỏ, với số lượng bóng bán dẫn lên tới 146 tỷ, hiệu suất AI và hiệu suất trên mỗi watt gấp 8 lần và 5 lần so với MI250 thế hệ trước (sử dụng bài kiểm tra benchmark FP8 thưa thớt), sẽ được sản xuất hàng loạt và cung cấp vào nửa cuối năm 2023.
Sau đó vào tháng 6, AMD cũng công bố chip tăng tốc AI mới Instinct MI300X, Instinct MI300A và các sản phẩm khác được chế tạo đặc biệt cho AI thế hệ mới với 153 tỷ bóng bán dẫn, đã được cải thiện về dung lượng lưu trữ và băng thông kết nối. Bộ nhớ băng thông cao HBM3 gấp 2,4 lần so với H100. Một model lớn với 80 tỷ thông số có thể chạy trên một con chip duy nhất và dự kiến sẽ xuất xưởng trước cuối năm nay.
Điều này không chỉ thể hiện đầy đủ năng lực công nghệ AI của trung tâm dữ liệu sau thương vụ mua lại Xilinx mà còn thách thức sự thống trị của Nvidia về chip điện toán AI.
Tất nhiên, không chỉ có GPU và chip AI, thứ mà AMD giỏi nhất là sản xuất chip CPU (bộ xử lý trung tâm). Suy cho cùng, các trung tâm dữ liệu cần sức mạnh tính toán chung của CPU. Vào tháng 11 năm ngoái, AMD đã cho ra mắt trung tâm dữ liệu thế hệ thứ 4 dòng EPYC 9004 sử dụng kiến trúc Zen 4, tên mã là “Genoa”, không chỉ nâng cấp kiến trúc, Su Zifeng còn dồn vật liệu lên con chip này đến mức cực điểm: tiến trình TSMC 5nm , 96 lõi, 192 luồng, bộ đệm L3 384M và hỗ trợ PCle5.0.
So với bộ xử lý tám lõi của Intel, dòng CPU tính toán biên và trung tâm dữ liệu của AMD đã cải thiện đáng kể về mức tiêu thụ năng lượng và hiệu suất, bao gồm giảm 40% diện tích chip Genoa và cải thiện 48% về hiệu suất sử dụng năng lượng.
Vào tháng 9 năm nay, AMD đã ra mắt dòng EPYC 8004 thế hệ thứ tư mới nhất, giới thiệu lõi "Zen 4c" vào các CPU chuyên dụng, cung cấp các dịch vụ từ biên thông minh (như bán lẻ, sản xuất và viễn thông) đến trung tâm dữ liệu, điện toán đám mây và các dịch vụ khác. lĩnh vực.
Trên thực tế, Amazon Cloud AWS đã phát hành một phiên bản tính toán tổng quát dựa trên Genoa M7A, kết quả cuối cùng cho thấy hiệu suất được cải thiện 50% so với thế hệ trước.So với phiên bản Xeon Platinum Edition 8490H thế hệ thứ tư của Intel, hiệu năng của Genoa trong nhiều kịch bản ứng dụng Mức cải thiện là 1,7-1,9 lần và hiệu suất năng lượng tổng thể được cải thiện 1,8 lần. Nó được sử dụng đầy đủ trong các lĩnh vực điện toán hiệu suất cao như mô hình tài chính, mô phỏng thời tiết và nghiên cứu và phát triển thuốc. Ngoài ra, trong khối lượng công việc cổng IoT Edge, máy chủ tám lõi hỗ trợ EPYC 8024P mới nhất cũng cung cấp tổng hiệu suất thông lượng trên mỗi giá 8kW cao hơn khoảng 1,8 lần.
Nhìn chung, dù là CPU, GPU, FPGA, bộ xử lý trung tâm dữ liệu DPU hay công cụ ngăn xếp phần mềm hệ thống AMD ROCm, AMD đều sẵn sàng và đang “mài gươm” để thách thức các sản phẩm của Nvidia.
**Là gã khổng lồ về chip đã thành lập hơn 60 năm, Intel không muốn "nhượng lại thị trường cho người khác". **
Vào ngày 11 tháng 7 năm nay, gã khổng lồ chip Intel Corporation (Intel) đã phát hành chip AI Habana Gaudi2 cho thị trường Trung Quốc tại Bắc Kinh, sử dụng quy trình 7nm, có thể chạy các mô hình ngôn ngữ lớn, tăng tốc đào tạo và suy luận AI và có hiệu suất mỗi watt xấp xỉ 100% khi chạy ResNet-50. Nó gấp 2 lần so với NVIDIA A100 và tỷ lệ giá/hiệu suất của nó cao hơn 40% so với các giải pháp dựa trên NVIDIA trong đám mây AWS. Nó được kỳ vọng sẽ vượt qua H100 mới nhất của NVIDIA trong giá/hiệu suất vào tháng 9 năm nay.
Sandra Rivera, phó chủ tịch điều hành của Intel, nói với TMTpost vào tháng 7 năm nay rằng việc một công ty thống trị thị trường chip AI là điều không thể. Bởi thị trường cần sự đa dạng và khách hàng cũng muốn thấy nhiều công ty sản xuất chip đảm nhận vai trò dẫn đầu trong lĩnh vực AI.
Giám đốc điều hành Intel Pat Gelsinger
Hồi tháng 9, tại hội nghị đổi mới công nghệ Intel On tổ chức ở San Jose, Mỹ, Gelsinger công bố chip AI Gaudi 3 sử dụng tiến trình 5nm sẽ ra mắt vào năm sau, khi đó sức mạnh tính toán của nó sẽ gấp đôi Gaudi 2 và băng thông mạng của nó, HBM Dung lượng sẽ là 1,5 lần.
Đồng thời, Gelsinger cũng xem trước bộ xử lý máy chủ có khả năng mở rộng Intel Xeon thế hệ thứ năm, cho biết Xeon thế hệ tiếp theo sẽ có 288 lõi, dự kiến sẽ tăng mật độ giá đỡ lên 2,5 lần và hiệu suất trên mỗi watt lên 2,4 lần. Ngoài ra, Intel còn phát hành Sierra Forest và Granite Rapids, được kỳ vọng sẽ tăng hiệu suất AI lên gấp 2 đến 3 lần so với Xeon thế hệ thứ tư.
Giám đốc công nghệ của Alibaba Cloud, Chu Jingren, cho biết Alibaba sử dụng bộ xử lý Intel Xeon thế hệ thứ tư cho các mô hình ngôn ngữ lớn và AI tổng hợp, cụ thể là "Mô hình lớn Alibaba Cloud Tongyi Qianwen" và công nghệ Intel đã rút ngắn đáng kể thời gian phản hồi của mô hình, mức trung bình khả năng tăng tốc có thể đạt tới 3 lần.
Ngoài ra, để đào tạo mô hình lớn AI, điều quan trọng hơn là hệ sinh thái phần mềm. Intel công bố hợp tác với Arm để triển khai các sản phẩm Xeon trên CPU Arm, đồng thời ra mắt bộ công cụ thời gian chạy triển khai và suy luận AI OpenVINO, bộ công cụ này không chỉ hỗ trợ các mô hình được đào tạo trước mà còn chỉ cần viết một lần để triển khai bất kỳ hỗ trợ đa nền tảng chính có sẵn, mô hình Llama 2 của Meta đã được hỗ trợ.
Đồng thời, Linux Foundation cũng đã công bố trong tuần này về việc thành lập Unified Acceleration Foundation (UXL) Foundation để cung cấp mô hình lập trình máy gia tốc tiêu chuẩn mở nhằm đơn giản hóa việc phát triển các ứng dụng đa nền tảng, hiệu suất cao. sự phát triển của chương trình Intel oneAPI. Các thành viên sáng lập bao gồm Arm, Google Cloud, Intel, Qualcomm, Samsung và những công ty khác—Nvidia không nằm trong số đó.
Wang Rui, phó chủ tịch cấp cao của Tập đoàn Intel và chủ tịch Intel Trung Quốc, nói với TMTpost App và những người khác rằng Intel sẽ phát hành bộ xử lý có 288 lõi trong tương lai. Sẽ ngày càng có nhiều trung tâm dữ liệu trong tương lai, Intel sẽ tung ra các sản phẩm như Gaudi3 và Falcon Shores, ma trận sản phẩm sẽ hình thành lộ trình cho sự phát triển máy gia tốc và điện toán AI trong tương lai.
"Chúng tôi đã tích hợp các khả năng AI vào chip. Tùy theo các nhu cầu khác nhau, các khả năng AI tích hợp sẽ sử dụng sức mạnh tính toán khác nhau và các kiến trúc khác nhau để cung cấp hỗ trợ". lên đám mây, AI đã thâm nhập vào nhiều tình huống ứng dụng khác nhau; từ đào tạo mô hình ngôn ngữ quy mô lớn đến đào tạo mô hình ngôn ngữ toàn diện, quy mô nhỏ, tầm ảnh hưởng của AI ở khắp mọi nơi.
Vào cuối tháng 8 năm nay, Kissinger nói rằng ông tin rằng Intel đang tiến tới đạt được các mục tiêu tái cơ cấu đầy tham vọng và tiến tới khôi phục vị trí dẫn đầu trong ngành. Khi nói về Nvidia, Gelsinger thừa nhận rằng Nvidia có bố cục tốt và có thể nắm bắt được nhu cầu về hệ thống cần thiết để hỗ trợ việc mở rộng phần mềm AI, nhưng ông cho rằng Intel sẽ sớm bắt đầu giành được đơn đặt hàng tại các thị trường chip tăng tốc này.
Kissinger nói: “Họ đã làm rất tốt và tất cả chúng tôi đều khen ngợi họ. Nhưng chúng tôi sắp thể hiện sức mạnh của mình”.
Giá trị thị trường của Nvidia bốc hơi hàng trăm tỷ USD, chip nội có nắm bắt được cơ hội?
Thành tích rực rỡ của Nvidia trong năm 2023 dường như đã suy yếu trong hai tháng qua.
Theo dữ liệu từ Refinitiv, mặc dù giá cổ phiếu của Nvidia đã tăng khoảng 190% trong năm nay và hiệu suất của nó rất ấn tượng, nhưng giá cổ phiếu của nó lại hoạt động kém trong tháng 9: Kể từ ngày 31 tháng 8, giá cổ phiếu của Nvidia đã giảm hơn 10% và tổng giá trị thị trường đã bốc hơi, hơn 176 tỷ USD.
**Trên thực tế, có nhiều yếu tố góp phần khiến giá cổ phiếu của Nvidia giảm. **
Đầu tiên, mối lo ngại của thị trường về việc Cục Dự trữ Liên bang giữ lãi suất ở mức cao hơn trong thời gian dài hơn nhằm kiềm chế lạm phát đã gia tăng. Toàn bộ thị trường chứng khoán chịu áp lực, với chỉ số S&P 500 giảm trung bình 0,7% trong tháng 9 và gần 4% cho đến nay.
**Thứ hai, **các mô hình nguồn mở do LIama 2 đại diện đã lần lượt được phát hành và ngày càng có nhiều công ty bắt đầu sử dụng trực tiếp các mô hình này, chỉ cần áp dụng chip suy luận AI, điều này dẫn đến nhu cầu về máy tính giảm chip đào tạo năng lượng.
Cuối cùng, theo The Information, NVIDIA đã rất chú ý đến việc cung cấp card đồ họa cho một số công ty điện toán đám mây vừa và nhỏ ở Hoa Kỳ. card", NVIDIA đã rất quan tâm đến việc cung cấp card đồ họa cho các công ty lớn như Google và Meta, cũng như các doanh nghiệp Trung Quốc. Các dịch vụ tiếp theo và việc cung cấp card đồ họa dường như không còn là ưu tiên hàng đầu và điều này trực tiếp dẫn đến để tiếp thị những nghi ngờ về khả năng cung cấp sản phẩm của Nvidia.
Tất nhiên, bất chấp những sai sót của mình, NVIDIA vẫn có lợi thế đi đầu rất lớn trên thị trường sức mạnh tính toán AI. Ngoài hiệu suất chip GPU hàng đầu, hệ sinh thái phần mềm AI khổng lồ CUDA của nó nằm ngoài tầm với của nhiều người. Ngoài ra, công nghệ kết nối GPU tốc độ cao NVLink của NVIDIA cũng đã trở thành “vũ khí thần kỳ then chốt” cho sự cải tiến của công nghệ mô hình lớn và vai trò của nó cao hơn nhiều so với chính card GPU.
Người sáng lập và Giám đốc điều hành Baichuan Intelligence, Wang Xiaochuan, từng đề cập rằng trong ngành này, chi phí năng lượng tính toán GPU chiếm khoảng 40% -70% và tỷ lệ chi phí kết nối mạng và chi phí card đồ họa GPU là khoảng 3:1.
"Nếu chúng ta phát triển theo hướng các mô hình cao hơn trong tương lai, việc dự trữ năng lượng điện toán là rất quan trọng. Từ góc độ đào tạo và lý luận, lý luận cần có chip AI trong nước, không chỉ NVIDIA mà việc đào tạo hiện chỉ được NVIDIA thực hiện tốt nhất. 'Tính toán này cho Hãy chiến đấu hết mình, chip AI nội địa của Trung Quốc phải có khả năng cạnh tranh." Wang Xiaochuan nói.
**Trên thực tế, ngoài hai ông lớn chip, với “Cuộc chiến 100 chế độ” trong nước, nhu cầu về sức mạnh tính toán AI tăng cao, tuy nhiên nhiều chip AI như Nvidia AI00/H100 đã hạn chế xuất khẩu sang Trung Quốc, khiến các doanh nghiệp trong nước ngày càng khó có được chip cao cấp từ Mỹ. **
Vào tháng 10 năm 2022, Cục Công nghiệp và An ninh (BIS) thuộc Bộ Thương mại Hoa Kỳ đã ban hành các quy định kiểm soát xuất khẩu mới để định lượng nhiều sức mạnh điện toán chip, băng thông, quy trình sản xuất và các chỉ số khác, đồng thời hạn chế xuất khẩu của các công ty Hoa Kỳ sang Trung Quốc, bao gồm cả hạn chế đối với chip điện toán cao, ảnh hưởng trực tiếp đến sự phát triển AI, siêu máy tính, trung tâm dữ liệu và các ngành công nghiệp liên quan khác của Trung Quốc. NVIDIA, nhà sản xuất GPU (bộ xử lý đồ họa) chủ yếu đáp ứng nhu cầu về AI và các ứng dụng khác, đã nhận được thông báo từ chính phủ Mỹ vào tháng 8 về việc hạn chế xuất khẩu chip tiên tiến.
Nvidia đã phản ứng nhanh chóng và đưa vào sản xuất chip A800 vào quý 3 năm 2022 để thay thế cho A100 không thể xuất xưởng sang Trung Quốc được nữa. Đây cũng là sản phẩm “ưu đãi đặc biệt” đầu tiên được một công ty Mỹ tung ra nhằm mục đích này. Nvidia chưa công bố thông số chi tiết của A800, tuy nhiên, hướng dẫn sử dụng sản phẩm do đại lý của hãng cung cấp cho thấy sức mạnh tính toán đỉnh cao của A800 ngang bằng với A100 bị hạn chế xuất khẩu nhưng tốc độ truyền tải bị giới hạn ở mức 2/3. A100 để tuân thủ các yêu cầu liên quan của chính phủ Hoa Kỳ. Sức mạnh tính toán đào tạo của H800 "Phiên bản đặc biệt Trung Quốc" mới nhất kém hơn H100 khoảng 40%, nếu không có mô-đun kết nối do NVIDIA cung cấp, khoảng cách sức mạnh tính toán có thể lên tới hơn 60%.
Intel sẽ ra mắt phiên bản tiếng Trung của sản phẩm Gaudi 2 vào tháng 7 năm 2023. Gaudi 2 là chip ASIC (Mạch tích hợp dành riêng cho ứng dụng) được thiết kế chủ yếu để đào tạo AI học sâu hiệu suất cao. So với phiên bản quốc tế được công bố vào tháng 5 năm 2022, số lượng cổng Ethernet tích hợp trong phiên bản Trung Quốc của Gaudi 2 đã giảm từ 24 xuống còn 21. Intel cho biết vào thời điểm đó rằng đây là một thay đổi tương đối nhỏ với tác động hạn chế đến hiệu suất thực tế. Kissinger gần đây đã tuyên bố rằng công ty hiện đang bán phiên bản tiếng Trung của Gaudi 2 tại Trung Quốc và ông hy vọng sẽ tiếp tục làm như vậy trong tương lai.
**Vì vậy, dưới ảnh hưởng của các hạn chế về chip nước ngoài, các công ty điện toán AI trong nước như Huawei, Tianshu Zhixin, Cambrian và Denglin Technology đang tích cực triển khai để lấp chỗ trống về sức mạnh điện toán AI trong nước. **
Hiện tại, thị trường sức mạnh tính toán AI trong nước chủ yếu được chia thành ba phe chính: một là giải pháp sức mạnh tính toán của hệ sinh thái Huawei Kunpeng và Ascend AI, không có sự tham gia của GPU NVIDIA; hai là hỗ trợ sức mạnh tính toán lai, trong đó sử dụng một số lượng lớn chip NVIDIA A100 và Trong một số môi trường, AMD, Intel, Tianshu Intelligence Core, Cambrian, Haiguang và các chip khác được thêm vào để hỗ trợ đào tạo các mô hình lớn; thứ ba, sức mạnh điện toán đám mây máy chủ hiệu quả hơn về mặt chi phí được thuê để bổ sung cho sự thiếu hụt sức mạnh tính toán.
Tại Hội nghị thượng đỉnh mùa hè lần thứ 19 của Diễn đàn Doanh nhân Trung Quốc Yabuli 2023 được tổ chức vào tháng 8 năm nay, Liu Qingfeng, người sáng lập và chủ tịch của iFlytek, cho biết khả năng kỹ thuật GPU của Huawei hiện tương đương với Nvidia A100 và hiện đã được so sánh với Nvidia A100.
Vào ngày 20 tháng 9, Phó Chủ tịch Huawei, Chủ tịch luân phiên kiêm Giám đốc tài chính Mạnh Vạn Châu cho biết Huawei đã ra mắt cụm điện toán Ascend AI với kiến trúc mới có thể hỗ trợ đào tạo mô hình lớn với hơn một nghìn tỷ thông số. Huawei sẽ tiếp tục xây dựng một cơ sở sức mạnh điện toán vững chắc.
Gai Lujiang, Chủ tịch kiêm Giám đốc điều hành của Tianshu Zhixin, tiết lộ rằng hiện tại, nhiều công ty mô hình quy mô lớn trong nước đã bắt đầu sử dụng card đồ họa GPU trong nước và công ty đã hỗ trợ hoàn thành đào tạo mô hình quy mô lớn với 7 tỷ thông số. Ngoài ra, hầu hết các hãng GPU trong nước khác đều đang trong giai đoạn đào tạo suy luận AI.
Galujiang tin rằng ở Trung Quốc, thị phần của Nvidia trong lĩnh vực đào tạo cao tới hơn 95%, một số đạt tới 99% và về cơ bản nó đã đạt được sự độc quyền. Điều này chủ yếu là do kiến trúc phần cứng và hệ sinh thái CUDA được sử dụng rộng rãi - nó có hơn 300 triệu người dùng toàn cầu. Hiện tại, các công ty GPU trong nước đang phải đối mặt với vấn đề di cư sinh thái, do số lượng lớn mã dựa trên CUDA nên việc chuyển sang hệ sinh thái mới sẽ tốn rất nhiều thời gian và chi phí.
Tại một sự kiện bàn tròn gần đây, Wang Ping, đồng sáng lập và kiến trúc sư trưởng của Denglin Technology, đã đề cập rằng đối với khách hàng của AIGC, họ không chỉ cần các giải pháp như tạo văn bản và tạo hình ảnh mà quan trọng hơn là các sản phẩm thiết thực. Vì vậy, cần triển khai các sản phẩm sức mạnh tính toán có sức mạnh tính toán lớn, tính linh hoạt mạnh mẽ để tạo ra giá trị cho khách hàng. Được biết, các sản phẩm chip AI thế hệ mới của Denglin Technology có lợi thế tiêu thụ năng lượng gấp ba lần so với các sản phẩm GPU đa năng phổ thông quốc tế.
Galujiang cho biết đối với Tianshu Zhixin, bước tiếp theo là tối ưu hóa việc lặp lại sản phẩm, đòi hỏi phải dựa vào dữ liệu, phản hồi của khách hàng và đổi mới công nghệ cũng như thực hiện các điều chỉnh để đáp ứng nhu cầu đặc biệt trong nước. Đồng thời, công ty sẽ tích cực cải thiện hệ sinh thái và ngăn xếp phần mềm để đảm bảo người dùng có được trải nghiệm tốt nhất về hiệu quả, chi phí, hiệu suất và tỷ lệ giá/hiệu suất, nhằm thúc đẩy thương mại hóa sản phẩm hơn nữa.
Wang Ping tin rằng do khó khăn hơn trong việc có được chip cao cấp từ Hoa Kỳ, mặc dù không có công ty trong nước nào có thể sản xuất chip thực sự có thể thay thế chúng, nhưng ông tin rằng sức mạnh tính toán trong nước sẽ tiếp tục phát triển. Chip cần phải được lặp đi lặp lại liên tục, càng có nhiều người dùng và càng có nhiều phản hồi về vấn đề thì các công ty chip AI trong nước càng có thể cải thiện và nâng cao trải nghiệm người dùng ở những lần lặp tiếp theo.
Galujiang nói với TMTpost Media App: “Đây là cơ hội lớn cho các công ty GPU đa năng trong nước”.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Trung Quốc và Mỹ “bao vây và trấn áp” Nvidia, khó chiếm lĩnh thị trường chip AI nghìn tỷ
Tác giả: Lâm Chí Giai
Nguồn: TMTpost Media
Khi Nvidia dẫn đầu trong việc chiếm lĩnh thị trường chip sức mạnh tính toán mô hình lớn AI, nó có giá trị thị trường vượt quá một nghìn tỷ đồng. Cùng lúc đó, Intel, AMD và các hãng chip GPU Trung Quốc cũng đang âm thầm cạnh tranh, hy vọng giành được thị phần trên thị trường chip điện toán AI.
**Vào ngày 19 tháng 9, tại hội nghị đổi mới công nghệ Intel On được tổ chức tại San Jose, Hoa Kỳ, **Giám đốc điều hành Intel 62 tuổi Pat Gelsinger đã "tràn đầy năng lượng" và bắt đầu bài phát biểu của mình bằng động tác chống đẩy.
Tại cuộc họp này, Gelsinger đã đồng loạt tung ra hàng loạt sản phẩm công nghệ mới: bộ vi xử lý Intel Core Ultra dựa trên tiến trình Intel 4 (5nm), tên mã “Meteor Lake”; xem trước chip máy chủ Xeon thế hệ thứ năm và các sản phẩm Xeon tiếp theo Lộ trình ; tiết lộ chip AI 5nm Gaudi 3, v.v.
So với các buổi trước, lần này Kissinger “hóa thành ông già bọc da” và nói về vai trò của sức mạnh tính toán AI đối với nền kinh tế trong gần 2 tiếng đồng hồ. Theo thống kê của TMTpost App, Kissinger đã đề cập đến các thuật ngữ liên quan đến “trí tuệ nhân tạo” và “học sâu” khoảng 200 lần trong bài phát biểu này.
Gần như cùng lúc, Intel và đối thủ của Nvidia là AMD đã tung ra chip CPU (bộ xử lý trung tâm) EPYC 8004 mới nhất và dự kiến sẽ xuất xưởng chip AI dòng MI300 trước cuối năm nay để cạnh tranh với Nvidia. Ngoài ra, tại Trung Quốc, các nhà sản xuất chip AI bao gồm Huawei và Tianshu Zhixin cũng đang tích cực triển khai các sản phẩm sức mạnh điện toán AI và suy luận đào tạo mô hình lớn.
"Chúng tôi cạnh tranh rất khốc liệt với NVIDIA, công ty dẫn đầu thị trường về chip điện toán AI. Nhưng cả Gaudi2 và Gaudi3 đều là một bước tiến lớn so với họ. Chúng tôi đang có được động lực và thị trường bắt đầu nhận ra rằng trong số những công ty dẫn đầu về AI Ngành công nghiệp chip còn có một cơ hội khác", Kissinger nói với CNBC hôm 20/9.
Thị trường cạnh tranh ngày càng gay gắt, “Lão Hoàng” khó độc chiếm hàng nghìn tỷ sức mạnh tính toán AI
Từ năm 2023 đến nay, “cơn sốt” các mô hình lớn AI do ChatGPT đại diện đã càn quét thế giới, các mô hình lớn đang thúc đẩy sự phát triển của AI theo hướng tổng quát hơn.
Đồng thời, sự khan hiếm và chi phí cao của sức mạnh tính toán đã trở thành yếu tố cốt lõi hạn chế sự phát triển của AI. Sức mạnh tính toán cũng đã trở thành nền tảng quan trọng của quá trình chuyển đổi kỹ thuật số và thông minh của toàn xã hội, do đó thúc đẩy nhu cầu về sức mạnh tính toán thông minh tăng vọt.
Theo dữ liệu do Giám đốc điều hành AMD Lisa Su cung cấp, tổng thị trường tiềm năng cho máy tăng tốc AI của trung tâm dữ liệu toàn cầu sẽ đạt khoảng 30 tỷ USD vào năm 2023 và con số này dự kiến sẽ vượt 150 tỷ USD vào năm 2027 ((khoảng 1,095 nghìn tỷ RMB), với tốc độ tăng trưởng kép hàng năm trên 50%.
Manuvir Das, phó chủ tịch phụ trách điện toán doanh nghiệp tại Nvidia, đưa ra một bộ dữ liệu khác cho thấy thị trường tiềm năng (TAM) cho AI dự kiến sẽ tăng lên 600 tỷ USD. Trong số đó, chip và hệ thống có thể nhận được 300 tỷ đô la Mỹ, phần mềm AI tổng quát có thể nhận được 150 tỷ đô la Mỹ và 150 tỷ đô la Mỹ còn lại sẽ do phần mềm doanh nghiệp NVIDIA đóng góp.
**Rõ ràng, thị trường chip điện toán AI là một “chiếc bánh” lớn. **
Nhưng hiện tại, NVIDIA chiếm 82% thị trường tăng tốc AI trung tâm dữ liệu toàn cầu và độc quyền thị trường đào tạo AI toàn cầu với 95% thị phần, trở thành người chiến thắng lớn nhất trong vòng hỗn chiến AI này. Huang Renxun và công ty Nvidia của ông đang kiếm được rất nhiều tiền, với giá trị thị trường hơn 1 nghìn tỷ đô la Mỹ.
Đồng thời, nhu cầu sức mạnh tính toán tăng vọt đã trực tiếp khiến GPU (bộ xử lý đồ họa) của NVIDIA "khó tìm". Số lượng card đồ họa Nvidia A100 đã trở thành tiêu chuẩn để đo lường sức mạnh tính toán của một công ty.
**Trên thực tế, nếu một công ty muốn phát triển một mẫu lớn đa năng thì trước tiên phải chú ý đến hai điểm về khả năng tính toán: số lượng và giá cả của card đồ họa. **
**Trong số đó, xét về số lượng card đồ họa, **OpenAI sử dụng 10.000-30.000 GPU NVIDIA để đào tạo mô hình GPT-3.5. Theo báo cáo mới nhất từ TrendForce, nếu tính dựa trên sức mạnh xử lý của card đồ họa NVIDIA A100, việc chạy ChatGPT có thể sẽ phải sử dụng tới 30.000 card đồ họa GPU NVIDIA. Ngoài ra, về mặt mô hình nguồn mở, mô hình Llama được đào tạo trên 2048 chiếc A100 80GB và toàn bộ sức mạnh tính toán đào tạo gần bằng 2000 sức mạnh tính toán PTOPS.
Về giá cả, giá H800 hiện có tại Trung Quốc lên tới 200.000/chiếc, trong khi giá A100/A800 đã tăng lên khoảng 150.000 và 100.000/chiếc. Lấy yêu cầu về sức mạnh tính toán 2000P làm ví dụ, GPU H800 có sức mạnh tính toán của một thẻ là 2P và cần 1.000 card đồ họa. Giá ước tính của toàn bộ thẻ là 200 triệu nhân dân tệ, sức mạnh tính toán của một thẻ A800 là khoảng 0,625P và số lượng yêu cầu là 3.200 card đồ họa, giá ước tính của toàn bộ card đồ họa lên tới 320 triệu nhân dân tệ.
Ngoài việc mua card đồ họa GPU, máy chủ cũng cần quan tâm đến cấu hình và tính toán của toàn bộ máy, bao gồm CPU, bộ lưu trữ, kết nối giao tiếp NV-Link, v.v. cũng như các yếu tố như điện năng tiêu thụ, thuê địa điểm, và chi phí vận hành và bảo trì.
Hiện tại, máy chủ A800 và H800 chủ yếu là model 8 card, để đáp ứng sức mạnh tính toán 2000 P cần cấu hình 125 máy chủ H800 8 card hoặc 400 máy chủ A800 8 card, giá 300 triệu nhân dân tệ và 560 triệu nhân dân tệ tương ứng. Hơn nữa, do H800 còn hỗ trợ PCIe 5.0, thế hệ CPU và bộ nhớ mới nên giá thành cần phải tăng lên để đạt được hiệu năng tính toán tối ưu.
Do đó, từ góc độ đào tạo mô hình lớn, tổng chi phí mua H800 thấp hơn A800, tiết kiệm chi phí hơn và thấp hơn chi phí xây dựng CPU, đây là điều mà Giám đốc điều hành Nvidia Jen-Hsun Huang thường nói gần đây: "Mua càng nhiều thì càng tiết kiệm chi phí", bạn càng tiết kiệm được nhiều."
Tất nhiên, không thành vấn đề nếu bạn thực sự không đủ khả năng chi trả. NVIDIA cũng đã chu đáo ra mắt dịch vụ cho thuê trực tuyến, hệ thống điện toán siêu AI DGX, dành cho các doanh nghiệp thông qua hình thức cho thuê, được trang bị 8 GPU H100 hoặc A100, mỗi nút có bộ nhớ 640GB và giá thuê hàng tháng là 37.000 USD. nên không cần phải tự xây dựng dữ liệu Trung tâm mua số lượng lớn card đồ họa GPU. Hình thức cho thuê này có tỷ suất lợi nhuận gộp cao, theo báo cáo về dịch vụ “Cho thuê điện toán đám mây” của Microsoft, tỷ suất lợi nhuận gộp của mảng kinh doanh này cao tới 42%, trở thành “con bò sữa” mới của Microsoft. .
Tại thị trường trong nước, InBev Digital, SenseTime AIDC và hơn 11 nhà cung cấp trung tâm điện toán/đám mây thông minh khác cũng cung cấp dịch vụ tương tự, đối với các mẫu lớn, giá tổng thể thấp hơn 20% so với giá tự xây dựng.
**Ngoài ra còn có thời gian đào tạo cho model lớn. **GPU NVIDIA L40S mới phát hành của NVIDIA có hiệu quả đào tạo cao hơn mẫu A800/H800. Một model có 7 tỷ thông số phải mất 17 giờ để chạy trên HGX A800, trong khi L40S nhanh hơn 1,3 lần và có thể chạy chỉ trong nửa ngày, chưa kể một model có 175 tỷ thông số có thể tập luyện trong một ngày cuối tuần với L40S. .
Trước đó có thông tin cho rằng Baidu, Bytedance, Tencent và Alibaba đã đặt hàng chip trị giá 5 tỷ USD từ Nvidia. Cộng thêm số lượng card đồ họa đã tích trữ trước đó, tổng số card đồ họa GPU Nvidia ở Trung Quốc đã vượt quá 100 tỷ nhân dân tệ. Tổ chức nghiên cứu thị trường Counterpoint đưa ra một báo cáo cho biết, bất chấp sự suy thoái theo chu kỳ trong ngành bán dẫn, các công ty Trung Quốc như Tencent và Baidu vẫn đang mua chip Nvidia A800 với số lượng lớn.
**Vì vậy, trong một thị trường nghìn tỷ quan trọng như vậy, cả công ty chip lẫn khách hàng hạ nguồn đều không muốn thấy "NVIDIA" thống trị. Vì vậy, AMD, Intel và các hãng chip GPU Trung Quốc đã nỗ lực thách thức sự thống trị của Nvidia trên thị trường chip AI. **
Về chip AI, tại Triển lãm Điện tử Tiêu dùng (CES) 2023 diễn ra vào tháng 1 năm nay, Chủ tịch kiêm Giám đốc điều hành AMD Lisa Su đã chính thức trình làng sản phẩm APU (bộ xử lý tăng tốc) thế hệ tiếp theo Instinct MI300 dành cho trung tâm dữ liệu, sử dụng kết hợp TSMC 5nm + 6nm Thiết kế kiến trúc Chiplet, tích hợp CPU và GPU, với 13 chip nhỏ, với số lượng bóng bán dẫn lên tới 146 tỷ, hiệu suất AI và hiệu suất trên mỗi watt gấp 8 lần và 5 lần so với MI250 thế hệ trước (sử dụng bài kiểm tra benchmark FP8 thưa thớt), sẽ được sản xuất hàng loạt và cung cấp vào nửa cuối năm 2023.
Sau đó vào tháng 6, AMD cũng công bố chip tăng tốc AI mới Instinct MI300X, Instinct MI300A và các sản phẩm khác được chế tạo đặc biệt cho AI thế hệ mới với 153 tỷ bóng bán dẫn, đã được cải thiện về dung lượng lưu trữ và băng thông kết nối. Bộ nhớ băng thông cao HBM3 gấp 2,4 lần so với H100. Một model lớn với 80 tỷ thông số có thể chạy trên một con chip duy nhất và dự kiến sẽ xuất xưởng trước cuối năm nay.
Điều này không chỉ thể hiện đầy đủ năng lực công nghệ AI của trung tâm dữ liệu sau thương vụ mua lại Xilinx mà còn thách thức sự thống trị của Nvidia về chip điện toán AI.
Tất nhiên, không chỉ có GPU và chip AI, thứ mà AMD giỏi nhất là sản xuất chip CPU (bộ xử lý trung tâm). Suy cho cùng, các trung tâm dữ liệu cần sức mạnh tính toán chung của CPU. Vào tháng 11 năm ngoái, AMD đã cho ra mắt trung tâm dữ liệu thế hệ thứ 4 dòng EPYC 9004 sử dụng kiến trúc Zen 4, tên mã là “Genoa”, không chỉ nâng cấp kiến trúc, Su Zifeng còn dồn vật liệu lên con chip này đến mức cực điểm: tiến trình TSMC 5nm , 96 lõi, 192 luồng, bộ đệm L3 384M và hỗ trợ PCle5.0.
So với bộ xử lý tám lõi của Intel, dòng CPU tính toán biên và trung tâm dữ liệu của AMD đã cải thiện đáng kể về mức tiêu thụ năng lượng và hiệu suất, bao gồm giảm 40% diện tích chip Genoa và cải thiện 48% về hiệu suất sử dụng năng lượng.
Vào tháng 9 năm nay, AMD đã ra mắt dòng EPYC 8004 thế hệ thứ tư mới nhất, giới thiệu lõi "Zen 4c" vào các CPU chuyên dụng, cung cấp các dịch vụ từ biên thông minh (như bán lẻ, sản xuất và viễn thông) đến trung tâm dữ liệu, điện toán đám mây và các dịch vụ khác. lĩnh vực.
Trên thực tế, Amazon Cloud AWS đã phát hành một phiên bản tính toán tổng quát dựa trên Genoa M7A, kết quả cuối cùng cho thấy hiệu suất được cải thiện 50% so với thế hệ trước.So với phiên bản Xeon Platinum Edition 8490H thế hệ thứ tư của Intel, hiệu năng của Genoa trong nhiều kịch bản ứng dụng Mức cải thiện là 1,7-1,9 lần và hiệu suất năng lượng tổng thể được cải thiện 1,8 lần. Nó được sử dụng đầy đủ trong các lĩnh vực điện toán hiệu suất cao như mô hình tài chính, mô phỏng thời tiết và nghiên cứu và phát triển thuốc. Ngoài ra, trong khối lượng công việc cổng IoT Edge, máy chủ tám lõi hỗ trợ EPYC 8024P mới nhất cũng cung cấp tổng hiệu suất thông lượng trên mỗi giá 8kW cao hơn khoảng 1,8 lần.
Nhìn chung, dù là CPU, GPU, FPGA, bộ xử lý trung tâm dữ liệu DPU hay công cụ ngăn xếp phần mềm hệ thống AMD ROCm, AMD đều sẵn sàng và đang “mài gươm” để thách thức các sản phẩm của Nvidia.
**Là gã khổng lồ về chip đã thành lập hơn 60 năm, Intel không muốn "nhượng lại thị trường cho người khác". **
Vào ngày 11 tháng 7 năm nay, gã khổng lồ chip Intel Corporation (Intel) đã phát hành chip AI Habana Gaudi2 cho thị trường Trung Quốc tại Bắc Kinh, sử dụng quy trình 7nm, có thể chạy các mô hình ngôn ngữ lớn, tăng tốc đào tạo và suy luận AI và có hiệu suất mỗi watt xấp xỉ 100% khi chạy ResNet-50. Nó gấp 2 lần so với NVIDIA A100 và tỷ lệ giá/hiệu suất của nó cao hơn 40% so với các giải pháp dựa trên NVIDIA trong đám mây AWS. Nó được kỳ vọng sẽ vượt qua H100 mới nhất của NVIDIA trong giá/hiệu suất vào tháng 9 năm nay.
Sandra Rivera, phó chủ tịch điều hành của Intel, nói với TMTpost vào tháng 7 năm nay rằng việc một công ty thống trị thị trường chip AI là điều không thể. Bởi thị trường cần sự đa dạng và khách hàng cũng muốn thấy nhiều công ty sản xuất chip đảm nhận vai trò dẫn đầu trong lĩnh vực AI.
Hồi tháng 9, tại hội nghị đổi mới công nghệ Intel On tổ chức ở San Jose, Mỹ, Gelsinger công bố chip AI Gaudi 3 sử dụng tiến trình 5nm sẽ ra mắt vào năm sau, khi đó sức mạnh tính toán của nó sẽ gấp đôi Gaudi 2 và băng thông mạng của nó, HBM Dung lượng sẽ là 1,5 lần.
Đồng thời, Gelsinger cũng xem trước bộ xử lý máy chủ có khả năng mở rộng Intel Xeon thế hệ thứ năm, cho biết Xeon thế hệ tiếp theo sẽ có 288 lõi, dự kiến sẽ tăng mật độ giá đỡ lên 2,5 lần và hiệu suất trên mỗi watt lên 2,4 lần. Ngoài ra, Intel còn phát hành Sierra Forest và Granite Rapids, được kỳ vọng sẽ tăng hiệu suất AI lên gấp 2 đến 3 lần so với Xeon thế hệ thứ tư.
Giám đốc công nghệ của Alibaba Cloud, Chu Jingren, cho biết Alibaba sử dụng bộ xử lý Intel Xeon thế hệ thứ tư cho các mô hình ngôn ngữ lớn và AI tổng hợp, cụ thể là "Mô hình lớn Alibaba Cloud Tongyi Qianwen" và công nghệ Intel đã rút ngắn đáng kể thời gian phản hồi của mô hình, mức trung bình khả năng tăng tốc có thể đạt tới 3 lần.
Ngoài ra, để đào tạo mô hình lớn AI, điều quan trọng hơn là hệ sinh thái phần mềm. Intel công bố hợp tác với Arm để triển khai các sản phẩm Xeon trên CPU Arm, đồng thời ra mắt bộ công cụ thời gian chạy triển khai và suy luận AI OpenVINO, bộ công cụ này không chỉ hỗ trợ các mô hình được đào tạo trước mà còn chỉ cần viết một lần để triển khai bất kỳ hỗ trợ đa nền tảng chính có sẵn, mô hình Llama 2 của Meta đã được hỗ trợ.
Đồng thời, Linux Foundation cũng đã công bố trong tuần này về việc thành lập Unified Acceleration Foundation (UXL) Foundation để cung cấp mô hình lập trình máy gia tốc tiêu chuẩn mở nhằm đơn giản hóa việc phát triển các ứng dụng đa nền tảng, hiệu suất cao. sự phát triển của chương trình Intel oneAPI. Các thành viên sáng lập bao gồm Arm, Google Cloud, Intel, Qualcomm, Samsung và những công ty khác—Nvidia không nằm trong số đó.
Wang Rui, phó chủ tịch cấp cao của Tập đoàn Intel và chủ tịch Intel Trung Quốc, nói với TMTpost App và những người khác rằng Intel sẽ phát hành bộ xử lý có 288 lõi trong tương lai. Sẽ ngày càng có nhiều trung tâm dữ liệu trong tương lai, Intel sẽ tung ra các sản phẩm như Gaudi3 và Falcon Shores, ma trận sản phẩm sẽ hình thành lộ trình cho sự phát triển máy gia tốc và điện toán AI trong tương lai.
"Chúng tôi đã tích hợp các khả năng AI vào chip. Tùy theo các nhu cầu khác nhau, các khả năng AI tích hợp sẽ sử dụng sức mạnh tính toán khác nhau và các kiến trúc khác nhau để cung cấp hỗ trợ". lên đám mây, AI đã thâm nhập vào nhiều tình huống ứng dụng khác nhau; từ đào tạo mô hình ngôn ngữ quy mô lớn đến đào tạo mô hình ngôn ngữ toàn diện, quy mô nhỏ, tầm ảnh hưởng của AI ở khắp mọi nơi.
Vào cuối tháng 8 năm nay, Kissinger nói rằng ông tin rằng Intel đang tiến tới đạt được các mục tiêu tái cơ cấu đầy tham vọng và tiến tới khôi phục vị trí dẫn đầu trong ngành. Khi nói về Nvidia, Gelsinger thừa nhận rằng Nvidia có bố cục tốt và có thể nắm bắt được nhu cầu về hệ thống cần thiết để hỗ trợ việc mở rộng phần mềm AI, nhưng ông cho rằng Intel sẽ sớm bắt đầu giành được đơn đặt hàng tại các thị trường chip tăng tốc này.
Kissinger nói: “Họ đã làm rất tốt và tất cả chúng tôi đều khen ngợi họ. Nhưng chúng tôi sắp thể hiện sức mạnh của mình”.
Giá trị thị trường của Nvidia bốc hơi hàng trăm tỷ USD, chip nội có nắm bắt được cơ hội?
Thành tích rực rỡ của Nvidia trong năm 2023 dường như đã suy yếu trong hai tháng qua.
Theo dữ liệu từ Refinitiv, mặc dù giá cổ phiếu của Nvidia đã tăng khoảng 190% trong năm nay và hiệu suất của nó rất ấn tượng, nhưng giá cổ phiếu của nó lại hoạt động kém trong tháng 9: Kể từ ngày 31 tháng 8, giá cổ phiếu của Nvidia đã giảm hơn 10% và tổng giá trị thị trường đã bốc hơi, hơn 176 tỷ USD.
**Trên thực tế, có nhiều yếu tố góp phần khiến giá cổ phiếu của Nvidia giảm. **
Đầu tiên, mối lo ngại của thị trường về việc Cục Dự trữ Liên bang giữ lãi suất ở mức cao hơn trong thời gian dài hơn nhằm kiềm chế lạm phát đã gia tăng. Toàn bộ thị trường chứng khoán chịu áp lực, với chỉ số S&P 500 giảm trung bình 0,7% trong tháng 9 và gần 4% cho đến nay.
**Thứ hai, **các mô hình nguồn mở do LIama 2 đại diện đã lần lượt được phát hành và ngày càng có nhiều công ty bắt đầu sử dụng trực tiếp các mô hình này, chỉ cần áp dụng chip suy luận AI, điều này dẫn đến nhu cầu về máy tính giảm chip đào tạo năng lượng.
Cuối cùng, theo The Information, NVIDIA đã rất chú ý đến việc cung cấp card đồ họa cho một số công ty điện toán đám mây vừa và nhỏ ở Hoa Kỳ. card", NVIDIA đã rất quan tâm đến việc cung cấp card đồ họa cho các công ty lớn như Google và Meta, cũng như các doanh nghiệp Trung Quốc. Các dịch vụ tiếp theo và việc cung cấp card đồ họa dường như không còn là ưu tiên hàng đầu và điều này trực tiếp dẫn đến để tiếp thị những nghi ngờ về khả năng cung cấp sản phẩm của Nvidia.
Tất nhiên, bất chấp những sai sót của mình, NVIDIA vẫn có lợi thế đi đầu rất lớn trên thị trường sức mạnh tính toán AI. Ngoài hiệu suất chip GPU hàng đầu, hệ sinh thái phần mềm AI khổng lồ CUDA của nó nằm ngoài tầm với của nhiều người. Ngoài ra, công nghệ kết nối GPU tốc độ cao NVLink của NVIDIA cũng đã trở thành “vũ khí thần kỳ then chốt” cho sự cải tiến của công nghệ mô hình lớn và vai trò của nó cao hơn nhiều so với chính card GPU.
Người sáng lập và Giám đốc điều hành Baichuan Intelligence, Wang Xiaochuan, từng đề cập rằng trong ngành này, chi phí năng lượng tính toán GPU chiếm khoảng 40% -70% và tỷ lệ chi phí kết nối mạng và chi phí card đồ họa GPU là khoảng 3:1.
"Nếu chúng ta phát triển theo hướng các mô hình cao hơn trong tương lai, việc dự trữ năng lượng điện toán là rất quan trọng. Từ góc độ đào tạo và lý luận, lý luận cần có chip AI trong nước, không chỉ NVIDIA mà việc đào tạo hiện chỉ được NVIDIA thực hiện tốt nhất. 'Tính toán này cho Hãy chiến đấu hết mình, chip AI nội địa của Trung Quốc phải có khả năng cạnh tranh." Wang Xiaochuan nói.
**Trên thực tế, ngoài hai ông lớn chip, với “Cuộc chiến 100 chế độ” trong nước, nhu cầu về sức mạnh tính toán AI tăng cao, tuy nhiên nhiều chip AI như Nvidia AI00/H100 đã hạn chế xuất khẩu sang Trung Quốc, khiến các doanh nghiệp trong nước ngày càng khó có được chip cao cấp từ Mỹ. **
Vào tháng 10 năm 2022, Cục Công nghiệp và An ninh (BIS) thuộc Bộ Thương mại Hoa Kỳ đã ban hành các quy định kiểm soát xuất khẩu mới để định lượng nhiều sức mạnh điện toán chip, băng thông, quy trình sản xuất và các chỉ số khác, đồng thời hạn chế xuất khẩu của các công ty Hoa Kỳ sang Trung Quốc, bao gồm cả hạn chế đối với chip điện toán cao, ảnh hưởng trực tiếp đến sự phát triển AI, siêu máy tính, trung tâm dữ liệu và các ngành công nghiệp liên quan khác của Trung Quốc. NVIDIA, nhà sản xuất GPU (bộ xử lý đồ họa) chủ yếu đáp ứng nhu cầu về AI và các ứng dụng khác, đã nhận được thông báo từ chính phủ Mỹ vào tháng 8 về việc hạn chế xuất khẩu chip tiên tiến.
Nvidia đã phản ứng nhanh chóng và đưa vào sản xuất chip A800 vào quý 3 năm 2022 để thay thế cho A100 không thể xuất xưởng sang Trung Quốc được nữa. Đây cũng là sản phẩm “ưu đãi đặc biệt” đầu tiên được một công ty Mỹ tung ra nhằm mục đích này. Nvidia chưa công bố thông số chi tiết của A800, tuy nhiên, hướng dẫn sử dụng sản phẩm do đại lý của hãng cung cấp cho thấy sức mạnh tính toán đỉnh cao của A800 ngang bằng với A100 bị hạn chế xuất khẩu nhưng tốc độ truyền tải bị giới hạn ở mức 2/3. A100 để tuân thủ các yêu cầu liên quan của chính phủ Hoa Kỳ. Sức mạnh tính toán đào tạo của H800 "Phiên bản đặc biệt Trung Quốc" mới nhất kém hơn H100 khoảng 40%, nếu không có mô-đun kết nối do NVIDIA cung cấp, khoảng cách sức mạnh tính toán có thể lên tới hơn 60%.
Intel sẽ ra mắt phiên bản tiếng Trung của sản phẩm Gaudi 2 vào tháng 7 năm 2023. Gaudi 2 là chip ASIC (Mạch tích hợp dành riêng cho ứng dụng) được thiết kế chủ yếu để đào tạo AI học sâu hiệu suất cao. So với phiên bản quốc tế được công bố vào tháng 5 năm 2022, số lượng cổng Ethernet tích hợp trong phiên bản Trung Quốc của Gaudi 2 đã giảm từ 24 xuống còn 21. Intel cho biết vào thời điểm đó rằng đây là một thay đổi tương đối nhỏ với tác động hạn chế đến hiệu suất thực tế. Kissinger gần đây đã tuyên bố rằng công ty hiện đang bán phiên bản tiếng Trung của Gaudi 2 tại Trung Quốc và ông hy vọng sẽ tiếp tục làm như vậy trong tương lai.
**Vì vậy, dưới ảnh hưởng của các hạn chế về chip nước ngoài, các công ty điện toán AI trong nước như Huawei, Tianshu Zhixin, Cambrian và Denglin Technology đang tích cực triển khai để lấp chỗ trống về sức mạnh điện toán AI trong nước. **
Hiện tại, thị trường sức mạnh tính toán AI trong nước chủ yếu được chia thành ba phe chính: một là giải pháp sức mạnh tính toán của hệ sinh thái Huawei Kunpeng và Ascend AI, không có sự tham gia của GPU NVIDIA; hai là hỗ trợ sức mạnh tính toán lai, trong đó sử dụng một số lượng lớn chip NVIDIA A100 và Trong một số môi trường, AMD, Intel, Tianshu Intelligence Core, Cambrian, Haiguang và các chip khác được thêm vào để hỗ trợ đào tạo các mô hình lớn; thứ ba, sức mạnh điện toán đám mây máy chủ hiệu quả hơn về mặt chi phí được thuê để bổ sung cho sự thiếu hụt sức mạnh tính toán.
Tại Hội nghị thượng đỉnh mùa hè lần thứ 19 của Diễn đàn Doanh nhân Trung Quốc Yabuli 2023 được tổ chức vào tháng 8 năm nay, Liu Qingfeng, người sáng lập và chủ tịch của iFlytek, cho biết khả năng kỹ thuật GPU của Huawei hiện tương đương với Nvidia A100 và hiện đã được so sánh với Nvidia A100.
Vào ngày 20 tháng 9, Phó Chủ tịch Huawei, Chủ tịch luân phiên kiêm Giám đốc tài chính Mạnh Vạn Châu cho biết Huawei đã ra mắt cụm điện toán Ascend AI với kiến trúc mới có thể hỗ trợ đào tạo mô hình lớn với hơn một nghìn tỷ thông số. Huawei sẽ tiếp tục xây dựng một cơ sở sức mạnh điện toán vững chắc.
Gai Lujiang, Chủ tịch kiêm Giám đốc điều hành của Tianshu Zhixin, tiết lộ rằng hiện tại, nhiều công ty mô hình quy mô lớn trong nước đã bắt đầu sử dụng card đồ họa GPU trong nước và công ty đã hỗ trợ hoàn thành đào tạo mô hình quy mô lớn với 7 tỷ thông số. Ngoài ra, hầu hết các hãng GPU trong nước khác đều đang trong giai đoạn đào tạo suy luận AI.
Galujiang tin rằng ở Trung Quốc, thị phần của Nvidia trong lĩnh vực đào tạo cao tới hơn 95%, một số đạt tới 99% và về cơ bản nó đã đạt được sự độc quyền. Điều này chủ yếu là do kiến trúc phần cứng và hệ sinh thái CUDA được sử dụng rộng rãi - nó có hơn 300 triệu người dùng toàn cầu. Hiện tại, các công ty GPU trong nước đang phải đối mặt với vấn đề di cư sinh thái, do số lượng lớn mã dựa trên CUDA nên việc chuyển sang hệ sinh thái mới sẽ tốn rất nhiều thời gian và chi phí.
Tại một sự kiện bàn tròn gần đây, Wang Ping, đồng sáng lập và kiến trúc sư trưởng của Denglin Technology, đã đề cập rằng đối với khách hàng của AIGC, họ không chỉ cần các giải pháp như tạo văn bản và tạo hình ảnh mà quan trọng hơn là các sản phẩm thiết thực. Vì vậy, cần triển khai các sản phẩm sức mạnh tính toán có sức mạnh tính toán lớn, tính linh hoạt mạnh mẽ để tạo ra giá trị cho khách hàng. Được biết, các sản phẩm chip AI thế hệ mới của Denglin Technology có lợi thế tiêu thụ năng lượng gấp ba lần so với các sản phẩm GPU đa năng phổ thông quốc tế.
Galujiang cho biết đối với Tianshu Zhixin, bước tiếp theo là tối ưu hóa việc lặp lại sản phẩm, đòi hỏi phải dựa vào dữ liệu, phản hồi của khách hàng và đổi mới công nghệ cũng như thực hiện các điều chỉnh để đáp ứng nhu cầu đặc biệt trong nước. Đồng thời, công ty sẽ tích cực cải thiện hệ sinh thái và ngăn xếp phần mềm để đảm bảo người dùng có được trải nghiệm tốt nhất về hiệu quả, chi phí, hiệu suất và tỷ lệ giá/hiệu suất, nhằm thúc đẩy thương mại hóa sản phẩm hơn nữa.
Wang Ping tin rằng do khó khăn hơn trong việc có được chip cao cấp từ Hoa Kỳ, mặc dù không có công ty trong nước nào có thể sản xuất chip thực sự có thể thay thế chúng, nhưng ông tin rằng sức mạnh tính toán trong nước sẽ tiếp tục phát triển. Chip cần phải được lặp đi lặp lại liên tục, càng có nhiều người dùng và càng có nhiều phản hồi về vấn đề thì các công ty chip AI trong nước càng có thể cải thiện và nâng cao trải nghiệm người dùng ở những lần lặp tiếp theo.
Galujiang nói với TMTpost Media App: “Đây là cơ hội lớn cho các công ty GPU đa năng trong nước”.