NVIDIA DGX Spark — kitap boyutunda, 200 milyar parametreli AI modellerini (iki bağlandığında 400 milyar) çalıştırabilen bir cihaz — masaüstü AI sahipliğinin yeni çağını temsil ediyor.

1 Temel
Neden Yerel Yapay Zeka? Sahiplik için İş Gerekçesi

2020'lerin başında yapay zeka, saatlik, token başına veya API çağrısıyla kiraladığınız bir hizmetti. 2026'ya gelindiğinde paradigma değişti. "GPT-4 sınıfı" zekayı çalıştırmak için gereken donanım artık masanıza sığıyor ve ikinci el bir arabanın maliyetinden daha az.

Sadece bulut tabanlı yapay zekürekli bağımlılık stratejik bir üçlü ikilem sunar:

  • Yükselen maliyetler. Token başına API ücretleri kullanımla doğru orantılı olarak artar. Günde 1.000 sözleşme işleyen bir hukuk firması, yıllık ~₺1,6 milyon API maliyetiyle karşılaşabilir.
  • Veri açığa çıkması. Bulut API'sine gönderilen her sorgu, ağınızdan ayrılan ve veri güvenliği ile gizlilik risklerine maruz kalan veridir.
  • Sıfır veya maliyetli özelleştirme. Bulut modelleri geneldir. Özel veriler, iç iş süreçleri veya iş zekası üzerinde kolayca veya uygun maliyetle ince ayar yapılamaz.

Yerel yapay zeka donanımı her üçünü de çözer. Değişken API ücretlerini sabit bir sermaye varlığına dönüştürür, verilerin yerel ağı asla terk etmemesini sağlar ve iş verileri üzerinde ince ayar yaparak derin özelleştirmeye olanak tanır.

2 Maliyetleri Azaltma
Kuantizasyon: Daha Ucuz Donanımla Daha Büyük Yapay Zeka Modelleri Çalıştırın

Kuantizasyon, yerel yapay zekanın ekonomisini temelden değiştiren bir kavramdır.

Basitçe ifade etmek gerekirse, kuantizasyon bir yapay zeka modelinin bellek ayak izini sıkıştırır. Standart bir model her parametreyi 16 bitlik kayan nokta sayısı (FP16) olarak saklar. Kuantizasyon bunu 8 bit (Int8), 4 bit (Int4) veya daha düşüğe indirerek modeli çalıştırmak için gereken bellek miktarını önemli ölçüde küçültür.

Kuantizasyon, çıktı kalitesinde hafif bir düşüşe neden olur — özetleme, taslak hazırlama ve analiz gibi iş görevleri için genellikle fark edilmez — karşılığında donanım maliyetinde büyük bir azalma sağlar.

Gereken Bellek: Farklı Hassasiyet Seviyelerinde 400B AI Modeli
FP16
Tam hassasiyet
~800 GB
Int8
Yarım boyut
~400 GB
Int4
Çeyrek
~200 GB
FP16 — Maksimum kalite, maksimum maliyet
Int8 — Neredeyse mükemmel kalite, yarı maliyet
Int4 — Yüksek kalite, çeyrek maliyet
İş Üzerindeki Etkisi

Tam hassasiyetli bir 400B modeli ~800 GB bellek gerektirir — ~₺8,8 milyon değerinde sunucu yatırımı. Int4'e nicemlenmiş aynı model yalnızca ~200 GB gerektirir ve iki bağlı DGX Spark (GB10 Süperçip tabanlı) mini-bilgisayarda ₺351.100 karşılığında çalıştırılabilir.

Uzmanlar Karışımı (MoE)

Uzmanlar Karışımı, devasa bellek maliyeti olmadan devasa modelleri dağıtmayı mümkün kılan başka bir AI model mimarisi hilesidir.

MoE modeli her sorguda tüm parametreleri kullanmak yerine, kapasitesinin yalnızca bir kısmını seyrek aktivasyon yoluyla etkinleştirir.

Llama 4 Behemoth gibi 2 trilyon parametreli bir MoE modeli, sorgu başına yalnızca 288B parametre etkinleştirir — bellek maliyetinin çok küçük bir kısmıyla sınır ötesi zekâ sunar.

Değiş Tokuş

MoE modelleri, özetleme ve sınıflandırma gibi basit görevlerde, aynı boyuttaki yoğun modellere kıyasla biraz daha az verimlidir. Karmaşık analiz, kod üretimi ve araştırma gibi bilgi işi ve akıl yürütme için MoE modelleri üstün performans gösterir.

Seyrek aktivasyon, daha hızlı çıkarım süresi ve daha kısa yanıt süreleri sağlar.

3 Mini Bilgisayarlar
Yapay Zeka Mini Bilgisayarları ₺66.000 - ₺440.000

Bir kadının elinde HP ZGX Nano AI

2026'nın en yıkıcı gelişmesi, mini bilgisayar form faktöründe yüksek kapasiteli yapay zeka hesaplamadır. Sert kapaklı bir kitaptan daha büyük olmayan cihazlar, iki yıl önce sunucu odaları gerektiren yapay zeka modellerini artık çalıştırıyor.

NVIDIA GB10 Ekosistemi (DGX Spark)

Performideri

NVIDIA logo

NVIDIA DGX Spark bu kategoriyi tanımladı. 2026'da, ARM Grace CPU ile Blackwell GPU'yu birleştiren GB10 Süperçip tam bir ekosistem yarattı. ASUS, GIGABYTE, Dell, Lenovo, HP, MSI ve Supermicro'nun tümü farklı form faktörleri, soğutma çözümleri ve paketlenmiş yazılımlarla GB10 tabanlı sistemler üretiyor.

NVIDIA GB10 Ekosistemi ASUS, GIGABYTE, Dell, Lenovo, HP, MSI ve Supermicro
Başlangıç fiyatı ₺175.500
Bellek
128 GB
LPDDR5X Birleşik
Hesaplama
~1 PFLOP
FP8 Yapay Zeka Performansı
10 GbE + Wi-Fi 7
Kümeleme için ConnectX
Depolama
4 TB SSD
NVMe
Kümeleme
Evet (2 birim)
256 GB havuzlanmış bellek
Yazılım
NVIDIA AI Enterprise
CUDA, cuDNN, TensorRT
NVIDIA DGX Spark
ASUS Ascent GX10
Gigabyte AI TOP ATOM
DGX Quantum Machines combo
MSI EdgeExpert
Lenovo ThinkStation PGX
Dell Pro Max Desktop
NVIDEA DGX Spark
Kümeleme: 256 GB Kapasite

Özel yüksek hızlı ağ bağlantı noktası üzerinden iki GB10 birimini bağlayarak sistem, kaynakları 256 GB bellek alanında birleştirir. Bu, yaklaşık ₺351.100 toplam donanım yatırımıyla çok büyük modelleri — 400B+ parametre kuantize edilmiş — tamamen masanızda çalıştırma yeteneğinin kilidini açar.

AMD Ryzen AI Max (Strix Halo) Mini Bilgisayarlar

En Düşük Maliyet

AMD Ryzen AI Max+ Strix Halo

AMD'nin Ryzen AI Max+ Strix Halo mimarisi, tamamen yeni bir bütçe yapay zeka mini bilgisayar kategorisi yarattı. GMKtec, Beelink, Corsair, NIMO, Bosgame, FAVM gibi birçok üretici artık ~₺87,8 bin altında 128 GB birleşik belleğe sahip sistemler sunuyor.

AMD Ryzen AI Max Mini Bilgisayarlar GMKtec EVO-X2 · Beelink · Corsair · NIMO AI · Bosgame M5 · FAVM FA-EX9
Başlangıç fiyatı ~₺65,8 bin
Bellek
128 GB
LPDDR5 Paylaşımlı (CPU+GPU)
Hesaplama
~0.2 PFLOP
Entegre RDNA 3.5 GPU
Bant Genişliği
~200 GB/s
Bellek bant genişliği
Güç
~100W
Sessiz çalışma
Kümeleme
Hayır
Yalnızca bağımsız
İşletim Sistemi
Windows / Linux
ROCm / llama.cpp
GMKtex EVO X2
Bosgame M5 AI
NIMO AI Mini PC
Beelink Mini PC
Beelink Mini PC
Corsair AI Workstation 300 Halo
FAVM FA EX9
GMK Ryzen Strix Halo Mini PC

Apple Mac Studio (M4 Ultra)

Kapasite Lideri

Mac Studio, yerel yapay zeka ortamında benzersiz bir konuma sahiptir. Apple'ın Birleşik Bellek Mimarisi (UMA), tek bir kompakt masaüstü biriminde hem CPU hem de GPU'nun erişebileceği 256 GB'a kadar bellek sağlar — kümelemeye gerek yoktur.

Bu, onu en büyük açık kaynaklı modelleri yükleyebilen tek uygun fiyatlı cihaz yapar. Int4'e kuantize edilmiş 400 milyar parametreli bir model, 256 GB konfigürasyonda tamamen belleğe sığar.

Apple Mac Studio (M4 Ultra) Tek birimli yapay zeka kapasite lideri
Başlangıç fiyatı ₺175.500
Bellek
256 GB'a kadar
Birleşik Bellek (UMA)
Hesaplama
~0.5 PFLOP
Apple Sinir Motoru + GPU
Yazılım
MLX Çerçevesi
Apple tarafından optimize edilmiş çıkarım
Sınırlama
Yalnızca Çıkarım
Eğitim/ince ayar için yavaş

Apple Mac Studio (M5 Ultra)

Yaklaşan Rakip

Apple'ın yeni nesil M5 Ultra'nın, 2026 sonunda piyasaya sürülmesi bekleniyor ve M4'ün ana zayıflığı olan yapay zeka modeli eğitim performansını ele alacağı söyleniyor. TSMC'nin 2nm süreci üzerine inşa edilen çipin, 1.2 TB/s'yi aşan bant genişliğiyle 512 GB'a kadar birleşik bellek konfigürasyonları sunması bekleniyor.

Apple Mac Studio (M5 Ultra) Beklenen yapay zeka eğitim güç merkezi
Tah. ~₺526,6 bin
Bellek
512 GB'a kadar
Yeni Nesil Birleşik Bellek
Hesaplama
~1.5+ PFLOP
2nm Sinir Motoru
Yazılım
MLX 2.0+
Yerel eğitim desteği
Yetenek
Eğitim ve Çıkarım
CUDA alternatifi
Bellek Bant Genişliği: 1.2 TB/s Kapasite

512 GB M5 Ultra, kuantize edilmemiş (tam hassasiyet) sınır modellerini çalıştırabilen ilk tüketici cihazı olacaktır. 1.2+ TB/s'lik yüksek bellek bant genişliği, çok uzun bağlam pencereleriyle sürekli yüksek verimli çıkarım gerektiren etmen yapay zeka iş akışlarını destekler.

Tiiny AI

Cep AI Süperbilgisayarı

Tiiny AI

2026'da Kickstarter'da ₺61.400 karşılığında piyasaya sürülen Tiiny.ai Cep AI Bilgisayarı, 80GB LGDDR5X belleğe ve 1TB SSD'ye sahip, her yerde yerel olarak 120B AI modellerini çalıştırabilen bir cep süperbilgisayarıdır.

300 gram ağırlığında (142×22×80mm) ve standart USB-C ile çalışan bu cihaz, yenilikçi iş uygulamalarını destekler. Tiiny AI, GPT-OSS-120B için saniyede 21.14 token çıktı hızı bildirmektedir.

Tiiny Pocket AI Computer
Tiiny Pocket AI Computer
Tiiny Pocket AI Computer
Tiiny Pocket AI Computer

Tenstorrent

Açık Kaynak Donanım

Tenstorrent

Efsanevi çip mimarı Jim Keller liderliğindeki Tenstorrent, temelde farklı bir felsefeyi temsil ediyor: RISC-V üzerine inşa edilmiş açık kaynak donanım, açık kaynak yazılım ve zincirleme bağlantı ile modüler ölçekleme.

Tensix yapay zeka çekirdekleri doğrusal olarak ölçeklenmek üzere tasarlanmıştır: daha fazla kart eklediğinizde iletişim ek yüküyle mücadele eden GPU'ların aksine, Tenstorrent çipleri verimli bir şekilde döşenmek üzere inşa edilmiştir.

Razer ile ortaklık kuran Tenstorrent, Thunderbolt aracılığıyla herhangi bir dizüstü veya masaüstü bilgisayara bağlanan kompakt bir harici yapay zeka hızlandırıcı yayınladı — mevcut donanımı hiçbir şeyi değiştirmeden bir yapay zeka iş istasyonuna dönüştürüyor.

Razer × Tenstorrent Kompakt Yapay Zeka Hızlandırıcı Harici Thunderbolt yapay zeka hızlandırıcı
Fiyat Bilinmiyor
Kutu Başına Bellek
12 GB
GDDR6
Çip
Wormhole n150
Tensix çekirdekleri · RISC-V
Ölçeklenebilirlik
4 birime kadar
48 GB AI kapasitesi
Yazılım
Tamamen açık kaynak
GitHub · TT-Metalium
Razer × Tenstorrent AI Accelerator
Razer × Tenstorrent AI Accelerator
Razer × Tenstorrent AI Accelerator
Razer × Tenstorrent AI Accelerator

Yapay Zeka NAS — Ağa Bağlı Depolama

Depolama + Yapay Zeka

NAS tanımı, pasif depolamadan aktif zekaya kaydı. Yeni nesil ağ depolama cihazları, hafif NPU tabanlı çıkarımdan tam GPU hızlandırmalı LLM dağıtımına kadar doğrudan AI işleme entegre ediyor.

AI özellikli bir NAS, ayrı bir AI cihazına olan ihtiyacı ortadan kaldırır ve sıfır ağ aktarım gecikmesiyle daha büyük miktarlardaki verilerin doğrudan işlenmesine olanak tanır.

QNAP AI NAS
Ugreen DXP4800 Pro
OmniCore AI NAS
Zetlab AI NAS

İşletmeniz için doğru AI mini bilgisayarını seçmekte yardıma mı ihtiyacınız var?

Mühendislerimiz AI donanım gereksinimlerinizi değerlendirebilir ve tam yapılandırılmış bir AI sistemi kurabilir.

Ücretsiz Donanım Değerlendirmesi Alın →

4 İş İstasyonları
AI İş İstasyonları & Masaüstü Bilgisayarlar ₺132.000 – ₺658.000

İş istasyonu katmanı, ayrık PCIe grafik kartlarını ve standart kule kasaları kullanır. Mini bilgisayar katmanının sabit birleşik mimarilerinin aksine, bu katman modülerlik sunar — teknoloji geliştikçe bileşenleri yükseltebilir, daha fazla GPU ekleyebilir veya kartları değiştirebilirsiniz.

NVLink köprülü çift RTX A6000 iş istasyonu, yaklaşık ₺307.200 karşılığında toplam 96 GB VRAM sunar.

VRAM ile Hızı Anlamak

AI için GPU seçimini iki rekabetçi faktör belirler:

📦
VRAM Kapasitesi
Yükleyebileceğiniz model boyutunu belirler. Daha fazla VRAM, daha büyük ve yetenekli modeller anlamına gelir. Bu sizin zeka tavanınızdır.
Hesaplama Hızı
Modelin ne kadar hızlı yanıt vereceğini belirler. Daha yüksek hesaplama gücü, sorgu başına daha düşük gecikme demektir. Bu sizin kullanıcı deneyiminizdir.

Tüketici kartları (RTX 5090 gibi) hızı maksimize eder ancak sınırlı VRAM sunar — tipik 24–32 GB. Profesyonel kartlar (RTX PRO 6000 Blackwell gibi) VRAM'i maksimize eder — kart başına 96 GB'a kadar — ancak hesaplama birimi başına daha pahalıdır.

VRAM kısıtlayıcı faktördür. Yetersiz belleğe sahip hızlı bir kart AI modelini hiç yükleyemez. Yeterli belleğe sahip daha yavaş bir kart modeli çalıştırır — sadece daha uzun yanıt süreleriyle.

Tüketici GPU'ları

YapılandırmaToplam VRAMBağlantıTah. Maliyet
2× RTX 3090 (Kullanılmış)48 GBNVLink~₺131,6 bin
2× RTX 409048 GBPCIe Gen 5₺175.500
2× RTX 509064 GBPCIe Gen 5₺307.200

Profesyonel GPU'lar

YapılandırmaToplam VRAMBağlantıTah. Maliyet
2× RTX 6000 Ada96 GBPCIe Gen 5₺570.500
1× RTX PRO 6000 Blackwell96 GBNVLink₺351.100
4× RTX PRO 6000 Blackwell384 GBPCIe Gen 5₺1.404.300

Veri Merkezi GPU'ları

YapılandırmaToplam VRAMBağlantıTah. Maliyet
1× L40S48 GBPCIe 4.0 (pasif soğutma)₺307.200
1× A100 PCIe80 GBPCIe 4.0₺438.800
1× H200 NVL141 GBNVLink₺1.316.500
4× H200 NVL564 GBNVLink₺5.266.000
1× B200 SXM180 GBNVLink 5 (1,8 TB/sn)₺1.316.500
8× B200 SXM1.440 GBNVLink 5 (1,8 TB/sn)₺10.531.900

Çin GPU'ları

Çin'in yerel GPU ekosistemi hızla olgunlaştı. Çeşitli Çinli üreticiler artık rekabetçi özelliklerle ve önemli ölçüde daha düşük fiyatlarla iş istasyonu sınıfı AI GPU'ları sunuyor.

YapılandırmaToplam VRAMBellek TürüTah. Maliyet
1× Moore Threads MTT S400048 GBGDDR6₺35.100
4× Moore Threads MTT S4000192 GBGDDR6₺153.600
8× Moore Threads MTT S4000384 GBGDDR6₺285.200
1× Hygon DCU Z10032 GBHBM2₺109.700
1× Biren BR10432 GBHBM2e~₺131,6 bin
8× Biren BR104256 GBHBM2e₺1.053.200
1× Huawei Ascend Atlas 300I Duo96 GBHBM2e₺52.700
8× Huawei Ascend Atlas 300I Duo768 GBHBM2e₺438.800

Yakında

YapılandırmaToplam VRAMDurumTah. Maliyet
RTX 5090 128 GB128 GBÇin mod. — standart SKU değil₺219.400
RTX Titan AI64 GB2027 Bekleniyor~₺131,6 bin
4x NVIDIA RTX PRO 6000 Blackwell
4x NVIDIA RTX PRO 6000 Blackwell
MSI NVIDIA RTX PRO 6000 Blackwell Server
NVIDIA RTX 5090
NVIDIA DGX Station — standart bir duvar prizine takılan, su soğutmalı bir "masaüstü veri merkezi".

NVIDIA DGX Station

Kurumsal Apex

NVIDIA DGX Station, veri merkezi performansını ofis ortamına getiren su soğutmalı, masaüstü süper bilgisayardır. Son sürüm GB300 Grace Blackwell Süperçip'ini kullanır.

NVIDIA DGX Station GB300 Geleceğe Hazır Ultra
Tah. Fiyat ~₺8,8 milyon

Blackwell Ultra sürümü, bellek yoğunluğunu ve hesaplama gücünü artırır, özel modelleri sıfırdan eğitmek veya devasa MoE (Uzmanlar Karışımı) mimarilerini yerel olarak çalıştırmak isteyen kuruluşlar için tasarlanmıştır.

Bellek
~1,5 TB+
HBM3e (Ultra hızlı)
Hesaplama
~20+ PFLOPS
FP8 Yapay Zeka Performansı
Kullanım Senaryosu
Özel Eğitim
Model Geliştirme
Güç
Standart priz
Sunucu odası gerekmez
NVIDIA DGX Station GB300 Blackwell Ultra
ASUS ExpertCenter Pro DGX GB300
MSI XpertStation WS300
NVIDIA DGX Station GB300 Blackwell Ultra
NVIDIA DGX Station A100 Uygun Fiyatlı AI İş Atı
Başlangıç fiyatı ~₺4,4 milyon

Önceki nesil Ampere mimarisine dayalı olsa da, güvenilir çıkarım ve ince ayar için endüstri standardı olmaya devam ediyor. Blackwell için bütçesi olmayan ve AI alanına giren ekipler için ideal.

Bellek
320 GB
4x 80GB A100 GPU
Hesaplama
2 PFLOPS
FP16 AI Performansı
Çoklu Kullanıcı
5–8 eşzamanlı
Orta düzey eşzamanlılık
Güç
Standart priz
Sunucu odası gerekmez

Pahalı olmasına rağmen, DGX Station ~₺13,2 milyon değerinde bir sunucu rafını ve ilişkili soğutma altyapısını değiştirir. Standart duvar prizine takılır. Bu, sunucu odası ek yükünü tamamen ortadan kaldırır.

İşletmeniz için doğru AI iş istasyonunu seçmekte yardıma mı ihtiyacınız var?

Mühendislerimiz AI donanım gereksinimlerinizi değerlendirebilir ve tam yapılandırılmış bir AI sistemi kurabilir.

Ücretsiz Donanım Değerlendirmesi Alın →

5 Sunucular
AI Sunucuları ₺658,2 bin – ₺8,8 milyon

İşletmeniz aynı anda çok sayıda çalışana hizmet vermek, temel sınıf modelleri tam hassasiyetle çalıştırmak veya özel veriler üzerinde özel modelleri ince ayarlamak gerektiğinde — sunucu katmanına geçersiniz.

Bu, yüksek bant genişlikli bellekli (HBM) özel AI hızlandırıcı kartlarının, özel bağlantıların ve rafa monte edilebilir veya masaüstü form faktörlerinin alanıdır. Donanım daha pahalıdır, ancak kullanıcı başına maliyet ölçekte önemli ölçüde düşer.

Intel Gaudi 3

Ölçekte En İyi Değer

Intel'in Gaudi 3 hızlandırıcısı, baştan sona bir AI eğitim ve çıkarım çipi olarak tasarlanmıştır — dönüştürülmüş bir grafik kartı değil. Her kart, ayrı ağ bağdaştırıcılarına duyulan ihtiyacı ortadan kaldıran entegre 400 Gb Ethernet ağı ile 128 GB HBM2e belleği sağlar.

Gaudi 3 iki form faktöründe mevcuttur:

  • PCIe Kartı (HL-338): Mevcut sunuculara entegrasyon için standart PCIe form faktörü. Tahmini fiyat: kart başına ~₺526,6 bin.
  • OAM (OCP Hızlandırıcı Modülü): Bulut veri merkezleri için yüksek yoğunluklu OCP standardı. Toplu 8 çipli kitler halinde satın alındığında çip başına ₺685.700 (temel plakayla toplam ~₺5,5 milyon).

8 kartlı bir Gaudi 3 sunucusu, karşılaştırılabilir bir NVIDIA H100 sisteminden çok daha düşük maliyetle toplam 1 TB AI belleği sunar.

💾
Kart Başına Bellek
128 GB
HBM2e — tek kartta DGX Spark ile karşılaştırılabilir
8-Kart Toplam
1 TB
En büyük modeller için 1.024 GB toplam bellek
💰
Sistem Maliyeti
~₺8,8 milyon
Karşılaştırılabilir NVIDIA H100 kurulumundan daha ucuz
Intel Gaudi 3 Baseboard HLB 325
Intel Gaudi 3 PCI card
Dell Intel Gaudi 3 server
Gigabyte Intel Gaudi 3 server

AMD Instinct MI325X

Maksimum Yoğunluk

AMD Instinct MI325X, kart başına 256 GB HBM3e belleğe sahiptir — Intel Gaudi 3'ün iki katı. Toplam 1 TB AI belleğine ulaşmak için Intel'de 8 karta karşılık yalnızca 4 kart gereklidir.

💾
4-Kart Toplam Bellek
1 TB
Aynı kapasite için Intel'den yarı yarıya daha az kart
Bant Genişliği
6 TB/sn
Kart başına — eşzamanlı kullanıcılara izin verir
💰
Sistem Maliyeti
~₺8,8 milyon
1 kartla giriş maliyeti ~₺2,6 milyon
AMD Instinct MI325X server
Supermicro AMD Instinct MI325X server
AMD Instinct MI325X server
ASUS AMD Instinct MI325X server

MI325X, sistem başına Gaudi 3'ten daha pahalıdır ancak daha hızlı ve yoğundur. Maksimum verim gerektiren iş yükleri için — daha fazla kullanıcı için gerçek zamanlı çıkarım veya büyük veri kümeleri üzerinde özel modeller eğitme — daha yüksek yatırım, düşük gecikme ve daha basit altyapı ile kendini amorti eder.

Huawei Ascend

Tam Yığın Alternatif

Huawei

Huawei, tam AI altyapı yığınını çoğaltmıştır: özel çip (Ascend 910B/C), özel bağlantılar (HCCS) ve eksiksiz bir yazılım çerçevesi (CANN). Sonuç, Batı tedarik zincirlerinden bağımsız olarak çalışan ve karşılaştırılabilir NVIDIA H100 kümelerinden çok daha düşük maliyetle çalışan kendi kendine yeten bir ekosistemdir.

Huawei Atlas
Huawei Ascend AI family
Huawei Atlas 300
Huawei Atlas 800i Ascend 910c

Intel Xeon 6 (Granite Rapids)

Bütçe Sunucusu

2026'da sessiz bir devrim, CPU tabanlı AI çıkarımının yükselişidir. Intel Xeon 6 işlemcileri, standart DDR5 RAM üzerinde AI iş yüklerini mümkün kılan AMX (Gelişmiş Matris Uzantıları) içerir — GPU belleğinden çok daha ucuzdur.

Değiş Tokuş

Çift soketli Xeon 6 sunucusu, GPU belleğinin maliyetinin çok küçük bir kıyasına 1 TB ila 4 TB DDR5 RAM tutabilir. Çıkarım hızları yavaştır, ancak toplu işleme için — hızın önemsiz olduğu ancak zekanın ve kapasitenin çok önemli olduğu durumlar — bu dönüştürücüdür.

Örnek: Bir KOBİ gece boyunca 100.000 taranmış fatura yükler. Xeon 6 sunucusu, verileri mükemmel şekilde çıkarmak için +400B AI modeli çalıştırır. Görev 10 saat sürer, ancak donanım maliyeti GPU sunucusundan çok daha düşüktür.

Doğru AI sunucu altyapısını seçmek için yardıma mı ihtiyacınız var?

Altyapı ekibimiz, Intel Gaudi'den NVIDIA DGX'e kadar özel yazılımlarla birleştirilmiş tam AI sunucu çözümleri tasarlar ve devreye alır — işletmeniz için AI'nın yeteneklerini ortaya çıkarmak için.

Sunucu Mimarisi Teklifi İsteyin →

6 Edge AI
Edge AI & Retrofit Mevcut Altyapının Yükseltilmesi

Her KOBİ'nin özel bir AI sunucusuna veya mini bilgisayara ihtiyacı yoktur. Çoğu, mevcut altyapıya düşük maliyetle AI yetenekleri ekleyerek — dizüstü bilgisayarları, masaüstlerini ve ağ cihazlarını yükseltebilir.

M.2 AI Hızlandırıcılar: Hailo-10

Hailo-10, SSD'ler için kullanılan aynı yuvaya sahip standart bir M.2 2280 modülüdür — mevcut herhangi bir bilgisayara özel AI işleme ekler. Birim başına ~~₺6, ve sadece 5–8W güç tüketimiyle, donanım değiştirmeden filo çapında AI yükseltmeleri sağlar.

📎
Form Faktörü
M.2 2280
Her standart SSD yuvasına uyar
Performans
20–50 TOPS
Edge çıkarım için optimize edilmiştir
💰
Maliyet
~₺6,
Birim başına — filo yükseltmesi ~₺131,6 bin altında

Kullanım alanları: Yerel toplantı transkripsiyonu (Whisper), gerçek zamanlı altyazı, sesli dikte, küçük model çıkarımı (Phi-3 Mini). Bu kartlar büyük LLM'leri çalıştıramaz ancak belirli, sürekli AI görevlerinde mükemmeldir — ses verilerinin yerel olarak işlenmesini ve asla buluta gönderilmemesini sağlar.

Copilot+ Bilgisayarlar (NPU Dizüstüleri)

Qualcomm Snapdragon X Elite, Intel Core Ultra veya AMD Ryzen AI çipli dizüstü bilgisayarlar, özel Sinirsel İşlem Birimleri (NPU) içerir — özelleştirilmiş AI çipleri. Bunlar büyük LLM'leri çalıştıramaz ancak küçük, sürekli AI görevlerini halleder: canlı transkripsiyon, arka plan bulanıklaştırma, yerel Recall özellikleri ve Microsoft Phi-3 gibi hafif modelleri çalıştırma.

NPU'lar TOPS (Saniyede Tera İşlem) ile derecelendirilir; bu, ne kadar AI işi kaldırabileceklerini ölçer. 2026'daki en güçlü Copilot+ PC'lerde ~50 TOPS vardır. Daha yüksek TOPS, daha hızlı yanıtlar ve biraz daha büyük AI modellerini işleme yeteneği demektir.

9 AI Modelleri
Açık Kaynaklı AI Modelleri (2026–2027)

AI modeli seçimi donanım gereksinimlerini belirler — ancak AI Model Kuantizasyonu bölümünün gösterdiği gibi, kuantizasyon sınır sınıfı modellerin tam hassasiyetli dağıtımın gerektirdiğinin küçük bir maliyetiyle çalıştırılmasını sağlar.

Aşağıdaki tablo, mevcut ve gelecek açık kaynaklı AI modellerine genel bir bakış sunar.

ModelBoyutMimariBellek (FP16)Bellek (INT4)
Llama 4 Behemoth288B (aktif)MoE (~2T toplam)~4 TB~1 TB
Llama 4 Maverick17B (aktif)MoE (400B toplam)~800 GB~200 GB
Llama 4 Scout17B (aktif)MoE (109B toplam)~220 GB~55 GB
DeepSeek V4~70B (aktif)MoE (671B toplam)~680 GB~170 GB
DeepSeek R137B (aktif)MoE (671B toplam)~140 GB~35 GB
DeepSeek V3.2~37B (aktif)MoE (671B toplam)~140 GB~35 GB
Kimi K2.532B (aktif)MoE (1T toplam)~2 TB~500 GB
Qwen 3.5397B (aktif)MoE (A17B)~1.5 TB~375 GB
Qwen 3-Max-ThinkingBüyükYoğun~2 TB~500 GB
Qwen 3-Coder-Next480B (A35B aktif)MoE~960 GB~240 GB
Mistral Large 3123B (41B aktif)MoE (675B toplam)~246 GB~62 GB
Ministral 3 (3B, 8B, 14B)3B–14BYoğun~6–28 GB~2–7 GB
GLM-544B (aktif)MoE (744B toplam)~1.5 TB~370 GB
GLM-4.7 (Thinking)BüyükYoğun~1.5 TB~375 GB
MiMo-V2-Flash15B (aktif)MoE (309B toplam)~30 GB~8 GB
MiniMax M2.5~10B (aktif)MoE (~230B toplam)~460 GB~115 GB
Phi-5 Reasoning14BYoğun~28 GB~7 GB
Phi-414BYoğun~28 GB~7 GB
Gemma 327BYoğun~54 GB~14 GB
Pixtral 2 Large90BYoğun~180 GB~45 GB
Stable Diffusion 4~12BDiT~24 GB~6 GB
FLUX.2 Pro15BDiT~30 GB~8 GB
Open-Sora 2.030BDiT~60 GB~15 GB
Whisper V41.5BYoğun~3 GB~1 GB
Med-Llama 470BYoğun~140 GB~35 GB
Legal-BERT 202635BYoğun~70 GB~18 GB
Finance-LLM 315BYoğun~30 GB~8 GB
CodeLlama 470BYoğun~140 GB~35 GB
Molmo 280BYoğun~160 GB~40 GB
Granite 4.032B (9B aktif)Hybrid Mamba-Transformer~64 GB~16 GB
Nemotron 38B, 70BYoğun~16–140 GB~4–35 GB
EXAONE 4.032BYoğun~64 GB~16 GB
Llama 5 Frontier~1.2T (toplam)MoE~2.4 TB~600 GB
Llama 5 Base70B–150BYoğun~140–300 GB~35–75 GB
DeepSeek V5~600B (toplam)MoE~1.2 TB~300 GB
Stable Diffusion 5NBTDiT
Falcon 3200BYoğun~400 GB~100 GB
Stratejik Tavsiye

Önce donanımı satın almayın. İşletme ihtiyaçlarınıza uygun model sınıfını belir, ardından en ekonomik donanım katmanını tespit etmek için nicemleme uygulayın.

~₺131,6 bin ile ₺6.582.500 yatırım arasındaki fark genellikle model boyutu gereksinimlerine ve eşzamanlı kullanıcı sayısına bağlıdır.

AI Model Manzarasını Şekillendiren Trendler

  • Standart olarak yerel çoklu ortam desteği. Yeni modellerin, görüntü, ses ve video üzerinde aynı anda eğitilir — eğitim sonrası eklenen ayrı yetenekler şeklinde değil. Bu, tek bir modelin belge analizi, görüntü anlama ve sesli etkileşimi yönetebileceği anlamına gelir.
  • Küçük modellerin büyük model yeteneklerine ulaşması. Phi-5 (14B) ve MiMo-V2-Flash, mimari yeniliğin sınır seviyesi akıl yürütmeyi dizüstü bilgisayarda çalışan modellere sıkıştırabildiğini gösteriyor. "Büyük daha iyidir" dönemi sona eriyor.
  • Genellemeden ziyade uzmanlaşma. Her şey için tek bir devasa model yerine, bir ajan çerçevesi tarafından yönetmanlaşmış modellerden oluşan topluluklara doğru bir eğilim var — bir kodlama modeli, bir akıl yürütme modeli, bir görü modeli. Bu, model başına donanım gereksinimlerini azaltırken genel kaliteyi artırır.
  • Ajanik AI. Kimi K2.5 ve Qwen 3 gibi modeller, karmaşık görevleri özerk olarak parçalara ayırmak, harici araçları çağırmak ve diğer modellerle koordine olmak üzere tasarlanmıştır. Bu ajan sürüsü paradigması, uzun oturumlar boyunca sürekli verim gerektirir — GB10 ve M5 Ultra gibi yüksek bant genişlikli donanımı tercih eder.
  • Video ve 3D üretiminin olgunlaşması. Open-Sora 2.0 ve FLUX.2 Pro, yerel video üretiminin pratik hale geldiğinin sinyalini veriyor. 2027'ye kadar, iş istasyonu sınıfı donanımda çalışan gerçek zamanlı video düzenleme asistanları bekleyin.

10 Güvenlik
Maksimum Güvenlik için Mimari

Yerel AI donanımının birincil avantajı performans değil — veri egemenliğidir. AI sunucunuz başkasının bulutunda değil de güvenlik duvarınızın arkasında çalıştığında, hassas verileriniz binanızı asla terk etmez.

Havadan Yalıtılmış API Mimarisi, AI sunucusunu fiziksel olarak internetten izole ederken yetkili çalışanların bir API arayüzü üzerinden erişmesini sağlar.

Air-Gapped API Mimarisi
👤 Çalışan Standart iş istasyonu
🔀 Aracı Sunucu Kimlik Doğrulama + UI + Yönlendirme
🔒 AI Sunucusu Air-gapped · İnternet yok
AI Kasası

Bu mimari bir Dijital Kasa oluşturur. Broker Sunucusu ele geçirilse bile, bir saldırgan yalnızca metin sorguları gönderebilir — AI Sunucusu'nun dosya sistemine, model ağırlıklarına, ince ayar verilerine veya depolanan belgelere erişemez.

Özel yapım AI çözümleriyle güvenli bir AI dağıtımına mı ihtiyacınız var?

Mühendislerimiz, verilerin asla tesis dışına çıkmamasını sağlarken işletmenize en son teknoloji AI yetenekleri sunan air-gapped AI mimarileri tasarlar ve devreye alır.

Güvenli AI Mimarisi Tartışın →

11 Ekonomi
Ekonomik Karar: Yerel mi Bulut mu?

Yerel AI donanımına geçiş, OpEx'ten (operasyonel harcama — aylık bulut API ücretleri) CapEx'e (sermaye harcaması — bilançonuzda varlık haline gelen tek seferlik donanım yatırımı) bir kaymadır.

Sözleşmeleri analiz etmek için 200B model çalıştıran bir hukuk firmasını düşünün:

☁️ Bulut API
~₺1,6 milyon
yıllık (ölçekte)
1.000 sözleşme/gün × ~₺0,01/1K token × 365 gün. Kullanımla doğru orantılı olarak artar. Veri ağı terk eder.
🖥️ Yerel Donanım (DGX Spark)
₺175.500
tek seferlik yatırım
+ ~₺660/ay elektrik. Sınırsız kullanım. Veri LAN'ı asla terk etmez. Bilançoda aktif.

Günde 1.000 sorguda, bir DGX Spark kendini bulut API maliyetlerine kıyasla 2 aydan kısa sürede amorti eder. Daha yüksek kullanım seviyelerinde, başa baş süresi haftalara iner.

Aşağıdakileri hesaba kattığınızda ekonomi daha da olumlu hale gelir:

  • Aynı donanımı paylaşan birden çok çalışan (DGX Spark 2–5 eşzamanlı kullanıcıya hizmet verir)
  • Token başına fiyatlandırma yok — karmaşık, çok adımlı akıl yürütme görevleri ekstra maliyet getirmez
  • Özel verilerle ince ayar — çoğu bulut API'si ile imkansız, yerel donanımda ücretsiz
  • Donanımış değeri — AI donanımı ikinci el piyasada önemli değerini korur