Microsoft cuối cùng đã tự mình xây dựng chip AI

Trong khi tình trạng thiếu chip thường được coi là nguyên nhân gây ra khó khăn và cản trở sự phát triển của AI, thì chi phí chip ngày càng tăng cũng là một thách thức...

Đối với Microsoft, AI sẽ là chìa khóa cho định hướng của công ty trong tương lai, đặc biệt là trong các lĩnh vực mà hãng dự định phát triển giải pháp cho khách hàng. Do đó, Microsoft đã tiết lộ hai con chip và hệ thống tích hợp được thiết kế tùy chỉnh của riêng mình tại sự kiện Ignite. Bộ tăng tốc AI Microsoft Azure Maia sẽ được tối ưu hóa cho các tác vụ AI và AI tổng hợp, trong khi CPU Microsoft Azure Cobalt sẽ là bộ xử lý được thiết kế để chạy khối lượng công việc tính toán có mục đích chung trên Đám mây của Microsoft.

BỘ TĂNG TỐC AI MICROSOFT AZURE MAIA VÀ CPU MICROSOFT AZURE COBALT

“Cobalt là CPU đầu tiên được chúng tôi thiết kế dành riêng cho Microsoft Cloud và chip dựa trên ARM 128 lõi 64 bit này là chip nhanh nhất so với bất kỳ nhà cung cấp đám mây nào. Nó đã hỗ trợ các bộ phận của Microsoft Teams và các dịch vụ liên lạc Azure cũng như Azure SQL. Và vào năm tới, chúng tôi sẽ cung cấp tính năng này cho khách hàng”, Satya Nadella, Giám đốc điều hành Microsoft cho biết trong bài phát biểu quan trọng tại sự kiện.

“Bắt đầu với thiết kế Maia 100 chạy khối lượng công việc AI trên nền tảng đám mây như đào tạo và suy luận LLM, con chip này được sản xuất trên quy trình 5 nanomet và có 105 tỷ bóng bán dẫn, khiến nó trở thành một trong những con chip lớn nhất có thể được sản xuất bằng công nghệ hiện tại”, Nadella nói thêm.

Dự kiến sẽ được triển khai vào đầu năm tới tại các trung tâm dữ liệu của Microsoft, các con chip này ban đầu sẽ cung cấp năng lượng cho các dịch vụ của công ty, chẳng hạn như Microsoft Copilot hoặc Azure OpenAI Service. Sau đó, họ sẽ tham gia vào một loạt sản phẩm mở rộng từ các đối tác trong ngành để giúp đáp ứng nhu cầu đang bùng nổ về sức mạnh tính toán hiệu quả, có thể mở rộng và bền vững cũng như nhu cầu của những khách hàng mong muốn tận dụng những đột phá mới nhất về đám mây và AI.

Theo Sam Altman, kiến trúc AI đầu cuối của Azure sẽ mở đường cho việc đào tạo các mô hình có khả năng hơn và làm cho các mô hình đó rẻ hơn cho khách hàng.

Nhìn vào hệ thống phần cứng, Brian Harry, chuyên gia kỹ thuật của Microsoft dẫn đầu nhóm Azure Maia, giải thích rằng tích hợp dọc, tức là sự liên kết giữa thiết kế chip với cơ sở hạ tầng AI lớn hơn được thiết kế dành cho khối lượng công việc của Microsoft, có thể mang lại lợi ích to lớn về hiệu suất và hiệu quả.

Trong khi đó, Wes McCullough, phó chủ tịch tập đoàn phát triển sản phẩm phần cứng tại Microsoft đã chỉ ra rằng CPU Cobalt 100 được xây dựng trên kiến trúc Arm, một loại thiết kế chip tiết kiệm năng lượng và được tối ưu hóa để mang lại hiệu suất cao hơn trong các dịch vụ gốc đám mây. McCullough nói thêm rằng việc lựa chọn công nghệ Arm là yếu tố then chốt trong mục tiêu bền vững của Microsoft. Nó nhằm mục đích tối ưu hóa hiệu suất trên mỗi watt trên toàn bộ các trung tâm dữ liệu của mình, điều này về cơ bản có nghĩa là có được nhiều sức mạnh tính toán hơn cho mỗi đơn vị năng lượng tiêu thụ.

MICROSOFT HỢP TÁC VỚI NVIDIA

Ngoài các chip mới, Microsoft cũng đang tiếp tục xây dựng cơ sở hạ tầng AI của mình với sự hợp tác chặt chẽ với các nhà cung cấp silicon và các nhà lãnh đạo ngành khác, như Nvidia và AMD. Với Nvidia, Azure hợp tác chặt chẽ bằng cách sử dụng các máy ảo dựa trên đơn vị xử lý đồ họa Nvidia H100 Tensor Core (GPU) cho khối lượng công việc AI quy mô từ trung bình đến lớn, bao gồm cả máy ảo Azure Confidential.

Ngoài các chip mới, Microsoft cũng đang tiếp tục xây dựng cơ sở hạ tầng AI của mình với sự hợp tác chặt chẽ với các nhà cung cấp silicon và các nhà lãnh đạo ngành khác, như Nvidia và AMD.

Ngoài các chip mới, Microsoft cũng đang tiếp tục xây dựng cơ sở hạ tầng AI của mình với sự hợp tác chặt chẽ với các nhà cung cấp silicon và các nhà lãnh đạo ngành khác, như Nvidia và AMD.

Dòng máy ảo (VM) NC H100 v5 là sản phẩm bổ sung mới nhất cho danh mục cơ sở hạ tầng chuyên dụng của Microsoft dành cho khối lượng công việc điện toán hiệu năng cao (HPC) và AI. Dòng Azure NC H100 v5 mới được trang bị GPU PCIe Tensor Core 94GB PCIe Hopper thế hệ H100 NVL và bộ xử lý AMD EPYC Genoa thế hệ thứ 4, mang lại hiệu năng mạnh mẽ và tính linh hoạt cho nhiều ứng dụng AI và HPC.

Nvidia cũng giới thiệu dịch vụ đúc AI để tăng cường phát triển và điều chỉnh các ứng dụng AI tổng hợp tùy chỉnh cho các doanh nghiệp và công ty khởi nghiệp triển khai trên Microsoft Azure.

Dịch vụ đúc AI của Nvidia kết hợp ba yếu tố – một tập hợp các mô hình nền tảng AI của Nvidia, khung và công cụ Nvidia NeMo cũng như các dịch vụ siêu máy tính Nvidia DGX Cloud AI – cung cấp cho doanh nghiệp giải pháp toàn diện để tạo các mô hình AI tổng hợp tùy chỉnh. Sau đó, các doanh nghiệp có thể triển khai các mô hình tùy chỉnh của mình với phần mềm Nvidia AI Enterprise để hỗ trợ các ứng dụng AI tổng quát, bao gồm tìm kiếm thông minh, tóm tắt và tạo nội dung.

Jensen Huang, người sáng lập và Giám đốc điều hành của Nvidia cho biết: “Các doanh nghiệp cần các mô hình tùy chỉnh để thực hiện các kỹ năng chuyên biệt được đào tạo dựa trên DNA độc quyền của công ty họ - dữ liệu của họ. Dịch vụ đúc AI của Nvidia kết hợp các công nghệ mô hình AI tổng quát, chuyên môn đào tạo LLM và nhà máy AI quy mô khổng lồ. Chúng tôi đã xây dựng tính năng này trong Microsoft Azure để các doanh nghiệp trên toàn thế giới có thể kết nối mô hình tùy chỉnh của họ với các dịch vụ đám mây hàng đầu thế giới của Microsoft”.

Thanh Minh

Nguồn VnEconomy: https://vneconomy.vn/microsoft-cuoi-cung-da-tu-minh-xay-dung-chip-ai.htm