
Nvidia’nın Tahtını Sallayacak Bellek Odaklı AI Sunucusu: Prometheus ile Tanışın
Yapay zeka sektörü, hesaplama gücüne olan körü körüne bağlılığın bedelini ağır öderken, bellek odaklı AI sunucusu konseptiyle yola çıkan yeni bir girişim tüm dengeleri değiştirmeye hazırlanıyor. Eski Google ve Meta mühendislerinin kurduğu Majestic Labs, geliştirdiği Prometheus isimli yeni nesil sunucu mimarisiyle Nvidia’nın GPU merkezli dünyasına doğrudan meydan okuyor. Şirketin temel iddiası oldukça net: Yapay zekada asıl darboğazı oluşturan işlemci hızı değil, bellek kapasitesi ve bu belleğe erişim süresi.
Bellek Duvarı Denen Kabus ve Majestic Labs’in Çıkışı
Modern yapay zeka modelleri trilyonlarca parametreye ulaştıkça, verinin işlemci ve bellek arasında sürekli taşınması ciddi bir performans kaybına yol açıyor. Sektörde “bellek duvarı” olarak adlandırılan bu sorun, en güçlü GPU’ların bile çoğu zaman atıl kalmasına neden oluyor. Majestic Labs kurucu ortağı Sha Rabii’nin de vurguladığı gibi, mevcut altyapılarla en yüksek kaliteli modelleri ticari olarak sürdürülebilir şekilde çalıştırmak her geçen gün zorlaşıyor.
İşte tam bu noktada devreye giren Ofer Shacham, Masumi Reynders ve Sha Rabii, geçtiğimiz aylarda topladıkları 100 milyon dolarlık dev yatırımla dikkatleri üzerlerine çekmişti. Bu üç deneyimli isim, kariyerlerinde Google’ın efsanevi TPU’ları da dahil olmak üzere kritik çip tasarım projelerine liderlik etmişlerdi. Şimdi ise tüm bu birikimlerini, sektördeki bu kronik sorunu kökten çözmeye odaklamış durumdalar.
128 Terabaytlık Canavar: Prometheus’un Teknik Şöleni
Prometheus, alışılagelmiş sunucu sistemlerinden tamamen farklı bir felsefeyle tasarlanmış. Sistemin kalbinde, şirketin kendi geliştirdiği ve “AIU” (Artificial Intelligence Unit) adını verdiği özel bir işlemci bulunuyor. Ancak asıl çarpıcı olan, her bir Prometheus sunucusunun 128 terabayta kadar yüksek hızlı bellekle yapılandırılabilmesi. Bu devasa kapasite, 5 ila 10 trilyon parametreye sahip dev modellerin bile hiçbir bölme (sharding) işlemine gerek kalmadan ve gecikme yaşamadan tek bir sunucu içinde çalıştırılabilmesine olanak tanıyor. Majestic Labs, bu sayede Nvidia’nın GPU tabanlı sistemlerine kıyasla 1.000 kata kadar daha fazla bellek kapasitesi sunduğunu iddia ediyor.
HBM Yerine DRAM Tercihinin Arkasındaki Strateji
Sektördeki yaygın eğilimin aksine Majestic Labs, yüksek bant genişlikli bellek (HBM) yerine daha erişilebilir ve yaygın olan standart DRAM kullanmayı tercih ediyor. Şirket, HBM’in karmaşık üç boyutlu yığın teknolojisi ve ciddi tedarik sıkıntılarının kendilerini bu karara ittiğini belirtiyor. Bu tercihin hakkını vermek için de DRAM’i kendi geliştirdikleri özel bir ara bağlantı (interconnect) teknolojisiyle destekliyorlar. Sonuç olarak hem daha yüksek veri aktarım hızları hem de daha düşük enerji tüketimiyle maliyet ve performans dengesini yakalamayı başarıyorlar.
Kızışan Rekabet ve Agentic AI’nın Yarattığı Talep Patlaması
Otonom görevleri yerine getirebilen “agentic AI” sistemlerinin yükselişi, özellikle çıkarım (inference) tarafında devasa bir talep patlamasına yol açmış durumda. Bu durum, gelişmiş çiplerin kiralama maliyetlerini uçururken, beraberinde yavaşlamaları ve kullanım kısıtlarını da getiriyor. Tam da bu nedenle rekabet inanılmaz derecede kızışmış durumda. AMD yeni nesil çiplerini doğrudan çıkarım odaklı konumlandırırken, Nvidia Groq ile 20 milyar dolarlık dev bir anlaşmaya imza attı. Google Cloud, eğitim ve çıkarım süreçlerini ayıran yeni TPU neslini tanıtırken, Cerebras AWS ile iş birliğini genişleterek pazardaki iddiasını güçlendiriyor.
Majestic Labs kurucularına göre mevcut tüm bu çözümler, yeterli bellek sağlamak uğruna müşterilere gereksiz yere fazla işlem gücü satın aldırıyor. Şirket, henüz isimlerini açıklamasa da 2027 yılı itibarıyla yüz milyonlarca dolarlık gelir getirecek anlaşmaları şimdiden imzaladığını duyurdu. Eğer bu iddialar gerçeğe dönüşürse, önümüzdeki birkaç yıl içinde yapay zeka donanım pazarındaki güç dengelerinin ciddi biçimde sarsıldığını görebiliriz. hedefbilgitoplumu.com
