AMD đã chính thức ra mắt Instinct MI300X, chip mạnh nhất dùng để huấn luyện AI của hãng. Chip này có hiệu năng gấp 1,6 lần so với H100 của Nvidia, với dung lượng bộ nhớ lớn hơn 2,4 lần và lợi thế về công suất tính toán là 1,3 lần.

Khi thử nghiệm với các mô hình ngôn ngữ lớn, MI300X vượt trội đối thủ từ Nvidia. Với Llama 2 70B và FlashAttention 2, chip AMD nhanh hơn 20% khi so sánh 1v1. Còn khi kết hợp 8v8, MI300X mạnh hơn 40% so với H100 khi chạy trên Llama 2 70B và tới 60% khi chạy trên Bloom 176B.

AMD nhấn mạnh MI300X ngang bằng với H100 về hiệu suất đào tạo, nhưng có giá cạnh tranh hơn khi so sánh cùng một khối lượng công việc.

Bên cạnh Instinct MI300X, AMD cũng giới thiệu Instinct MI300A, bộ xử lý tăng tốc APU cho trung tâm dữ liệu đầu tiên trên thế giới. Chip này cũng dùng kỹ thuật đóng gói 3,5D với 13 chiplet được xếp chồng, tạo ra một chip có 24 lõi chứa 53 tỷ bóng bán dẫn.

AMD dự đoán tổng doanh thu GPU cho trung tâm dữ liệu của hãng sẽ đạt khoảng 2 tỷ USD năm 2024. Công ty cũng ước tính tổng giá trị thị trường GPU AI có thể tăng lên 400 tỷ USD trong bốn năm tới.