Những ngày này, ngành công nghệ thế giới có 1 câu nói nổi tiếng ăn theo bộ phim gây sốt “Hành tinh cát”: “Ai kiểm soát được GPU, người đó sẽ kiểm soát toàn bộ vũ trụ”.
Thế thống trị của Nvidia
Tiếp cận với những con chip đồ họa GPU, đặc biệt là những con chip do Nvidia sản xuất, là điều sống còn đối với bất kỳ công ty nào muốn đi sâu vào công nghệ trí tuệ nhân tạo (AI). Các chuyên gia cũng phân loại các công ty thành “giàu” và “nghèo” dựa trên số lượng GPU mà họ đang sở hữu. Lãnh đạo các công ty công nghệ tự hào khoe số chip khổng lồ đã tích trữ được.
Sự thống trị của Nvidia trên thị trường GPU giúp giá trị vốn hóa của công ty này vượt 2.000 tỷ USD. Ngày 22/5 tới, Nvidia sẽ công bố kết quả kinh doanh và được dự báo doanh thu sẽ tăng trưởng tới hơn 200%.
GPU quan trọng vì có thể cung cấp đủ sức mạnh cần thiết để đào tạo và vận hành các mô hình AI lớn, dù điều lạ lùng là đó không phải mục đích sử dụng mà nhà sản xuất hướng tới khi bắt đầu tạo ra chúng. GPU là viết tắt của “graphics processing unit” (tạm dịch: đơn vị xử lý hình ảnh) vì những con chip này ban đầu được thiết kế để xử lý đồ họa trong các video game. Tình cờ Nvidia đã phát hiện ra rằng chúng có thể được sử dụng cho các công việc liên quan đến AI.
Điều này đưa chúng ta đến 1 câu hỏi: Liệu có tốt hơn nếu thiết kế 1 con chip chuyên dùng cho AI ngay từ ban đầu? Đây cũng là bài toán mà nhiều công ty từ lớn đến nhỏ đang đi tìm lời giải với hi vọng có thể lật đổ Nvidia. Họ hi vọng những con chip “thửa riêng” cho AI sẽ giúp xây dựng và vận hành các mô hình AI nhanh hơn, rẻ hơn. Và bất cứ công ty nào có thể làm được điều đó sẽ không bao giờ thiếu khách hàng – những người chán ghét tình trạng nguồn cung hạn chế và giá cả trồi sụt thất thường.
Sự thống trị của Nvidia trên thị trường GPU giúp giá trị vốn hóa của công ty này vượt 2.000 tỷ USD. |
Những con chip thông thường mà chúng ta có thể tìm thấy trong máy tính xách tay và máy tính để bàn được thiết kế để xử lý tuần tự các đầu việc. Ngược lại, GPU chứa từ hàng chục đến hàng trăm lõi ALU (Arithmetic Logic Units), cho phép xử lý song song hàng ngàn phép tính cùng một thời điểm. Tính năng này đặc biệt phù hợp với việc chạy các mô hình AI.
Nhưng GPU cũng có những điểm hạn chế. Các mô hình AI hiện đại chạy trên số lượng lớn các GPU và chip nhớ được kết nối với nhau, và dòng chảy dữ liệu tốc độ cao giữa chúng là điều quan trọng quyết định hiệu suất. Khi đào tạo những mô hình AI siêu lớn, một số lõi của GPU có thể rơi vào trạng thái “đứng tim” tới một nửa thời gian vì phải đợi dữ liệu.
Andrew Feldman, nhà sáng lập của Cerebras, 1 startup ở California, so sánh tình trạng này giống như siêu thị bị tắc nghẽn trong ngày mua sẵm trước dịp Lễ Tạ ơn. “Khách phải xếp hàng ở mọi nơi, từ bãi đỗ xe đến lối đi giữa các quầy hàng và cả quầy thu ngân”.
Một loạt startup kỳ vọng gì?
Để giải quyết tình trạng này, giải pháp của Cerebras là đặt 900.000 lõi, cộng thêm một lượng lớn chip nhớ, vào 1 con chip khổng lồ để giảm thiểu sự phức tạp từ việc phải kết nối nhiều con chip và chuyển dữ liệu giữa chúng. CS-3, sản phẩm của Cerebras, trở thành con chip lớn nhất thế giới. “Chip của chúng tôi có kích thước bằng 1 cái đĩa lớn, còn các GPU khác chỉ nhỏ bằng 1 con tem”, ông Feldman nói. Không chỉ chạy nhanh hơn, CS-3 còn được tuyên bố là giảm một nửa lượng điện tiêu thụ so với GPU mạnh nhất hiện nay của Nvidia.
Groq, một startup khác cũng đặt trụ sở ở California, lại có cách tiếp cận khác. Được gọi là LPU (đơn vị xử lý ngôn ngữ), loại chip do Groq sản xuất được tối ưu hóa để chạy các mô hình ngôn ngữ lớn (LLM). Bên cạnh sở hữu bộ nhớ của riêng mình, những con chip này còn có thể được sử dụng như các router truyền dữ liệu giữa các LPU có kết nối với nhau. Groq tuyên bố LPU của họ có thể chạy các mô hình LLM nhanh gấp 10 lần so với các hệ thống sẵn có.
Trên thế giới có rất nhiều startup đang cố gắng làm điều tương tự, như Hailo (ở Israel), Taals (ở Canada) hay Graphcore (công ty của Anh đã sớm tham gia vào cuộc đua nhưng không thu hút được nhiều sự chú ý và đang có ý định bán mình cho SoftBank).
Các ông lớn công nghệ khác cũng đang phát triển chip AI của riêng mình. Google phát triển các TPU chuyên xử lý các nhiệm vụ liên quan đến dịch vụ điện toán đám mây; Amazon, Meta và Microsoft hay OpenAI cũng làm tương tự. Và không thể không kể đến nỗ lực của AMD và Intel.
Không chỉ các startup, nhiều ông lớn công nghệ cũng đang tìm cách phát triển chip AI của riêng mình |
Những “tân binh” phải đối mặt với một mối nguy: nỗ lực chuyên môn hóa của họ có thể đi quá xa. Thông thường sẽ mất 2-3 năm để thiết kế 1 con chip, trong quãng thời gian đó không ai biết điều gì sẽ xảy ra và họ hoàn toàn có khả năng chọn mục tiêu sai và lãng phí thời gian, tiền bạc.
Một thách thức khác đến từ CUDA – kiến trúc tính toán song song do Nvidia phát triển. Với triết lý “phần mềm là vua”, CUDA giúp Nvidia có lợi thế lớn và đã giúp hãng xây dựng hệ sinh thái phần mềm trong nhiều năm qua. Các startup sẽ chỉ thành công với chip AI nếu như họ có thể thuyết phục các lập trình viên từ bỏ CUDA để sang hệ sinh thái mới.
Những khách hàng lớn nhất trên thị trường chip AI bao gồm các công ty xây dựng mô hình (như OpenAI, Anthropic và Mistral) và các ông lớn công nghệ (như Amazon, Meta, Microsoft và Google). Các công ty này có thể thâu tóm 1 startup chip AI. Do đó một lựa chọn tốt cho các startup là thay vì cạnh tranh trực diện với Nvidia, họ nên tự định vị là mục tiêu thu mua của các ông lớn. Cho đến nay chưa có startup nào khiến vị thế của Nvidia lung lay dù chỉ một chút, nhưng có rất nhiều hi vọng điều đó sẽ sớm xảy ra.
>> Tỷ phú Masayoshi Son tìm cách xây công ty chip AI trị giá 100 tỷ USD, Nvidia có đối thủ mới?
Nóng: Không chỉ FPT, Nvidia sẽ tiếp tục hợp tác với ‘kỳ lân công nghệ’ VNG
Ngoài vàng, cổ phiếu Nvidia chính là một công cụ tuyệt vời để phòng chống lạm phát