1 Temel
Neden Yerel Yapay Zeka? Sahiplik için İş Gerekçesi
2020'lerin başında yapay zeka, saatlik, token başına veya API çağrısıyla kiraladığınız bir hizmetti. 2026'ya gelindiğinde paradigma değişti. "GPT-4 sınıfı" zekayı çalıştırmak için gereken donanım artık masanıza sığıyor ve ikinci el bir arabanın maliyetinden daha az.
Sadece bulut tabanlı yapay zekürekli bağımlılık stratejik bir üçlü ikilem sunar:
- Yükselen maliyetler. Token başına API ücretleri kullanımla doğru orantılı olarak artar. Günde 1.000 sözleşme işleyen bir hukuk firması, yıllık ~₺1,6 milyon API maliyetiyle karşılaşabilir.
- Veri açığa çıkması. Bulut API'sine gönderilen her sorgu, ağınızdan ayrılan ve veri güvenliği ile gizlilik risklerine maruz kalan veridir.
- Sıfır veya maliyetli özelleştirme. Bulut modelleri geneldir. Özel veriler, iç iş süreçleri veya iş zekası üzerinde kolayca veya uygun maliyetle ince ayar yapılamaz.
Yerel yapay zeka donanımı her üçünü de çözer. Değişken API ücretlerini sabit bir sermaye varlığına dönüştürür, verilerin yerel ağı asla terk etmemesini sağlar ve iş verileri üzerinde ince ayar yaparak derin özelleştirmeye olanak tanır.
2 Maliyetleri Azaltma
Kuantizasyon: Daha Ucuz Donanımla Daha Büyük Yapay Zeka Modelleri Çalıştırın
Kuantizasyon, yerel yapay zekanın ekonomisini temelden değiştiren bir kavramdır.
Basitçe ifade etmek gerekirse, kuantizasyon bir yapay zeka modelinin bellek ayak izini sıkıştırır. Standart bir model her parametreyi 16 bitlik kayan nokta sayısı (FP16) olarak saklar. Kuantizasyon bunu 8 bit (Int8), 4 bit (Int4) veya daha düşüğe indirerek modeli çalıştırmak için gereken bellek miktarını önemli ölçüde küçültür.
Kuantizasyon, çıktı kalitesinde hafif bir düşüşe neden olur — özetleme, taslak hazırlama ve analiz gibi iş görevleri için genellikle fark edilmez — karşılığında donanım maliyetinde büyük bir azalma sağlar.
Tam hassasiyetli bir 400B modeli ~800 GB bellek gerektirir — ~₺8,8 milyon değerinde sunucu yatırımı. Int4'e nicemlenmiş aynı model yalnızca ~200 GB gerektirir ve iki bağlı DGX Spark (GB10 Süperçip tabanlı) mini-bilgisayarda ₺351.100 karşılığında çalıştırılabilir.
Uzmanlar Karışımı (MoE)
Uzmanlar Karışımı, devasa bellek maliyeti olmadan devasa modelleri dağıtmayı mümkün kılan başka bir AI model mimarisi hilesidir.
MoE modeli her sorguda tüm parametreleri kullanmak yerine, kapasitesinin yalnızca bir kısmını seyrek aktivasyon yoluyla etkinleştirir.
Llama 4 Behemoth gibi 2 trilyon parametreli bir MoE modeli, sorgu başına yalnızca 288B parametre etkinleştirir — bellek maliyetinin çok küçük bir kısmıyla sınır ötesi zekâ sunar.
MoE modelleri, özetleme ve sınıflandırma gibi basit görevlerde, aynı boyuttaki yoğun modellere kıyasla biraz daha az verimlidir. Karmaşık analiz, kod üretimi ve araştırma gibi bilgi işi ve akıl yürütme için MoE modelleri üstün performans gösterir.
Seyrek aktivasyon, daha hızlı çıkarım süresi ve daha kısa yanıt süreleri sağlar.
3 Mini Bilgisayarlar
Yapay Zeka Mini Bilgisayarları ₺66.000 - ₺440.000
2026'nın en yıkıcı gelişmesi, mini bilgisayar form faktöründe yüksek kapasiteli yapay zeka hesaplamadır. Sert kapaklı bir kitaptan daha büyük olmayan cihazlar, iki yıl önce sunucu odaları gerektiren yapay zeka modellerini artık çalıştırıyor.
NVIDIA GB10 Ekosistemi (DGX Spark)
Performideri
NVIDIA DGX Spark bu kategoriyi tanımladı. 2026'da, ARM Grace CPU ile Blackwell GPU'yu birleştiren GB10 Süperçip tam bir ekosistem yarattı. ASUS, GIGABYTE, Dell, Lenovo, HP, MSI ve Supermicro'nun tümü farklı form faktörleri, soğutma çözümleri ve paketlenmiş yazılımlarla GB10 tabanlı sistemler üretiyor.
Özel yüksek hızlı ağ bağlantı noktası üzerinden iki GB10 birimini bağlayarak sistem, kaynakları 256 GB bellek alanında birleştirir. Bu, yaklaşık ₺351.100 toplam donanım yatırımıyla çok büyük modelleri — 400B+ parametre kuantize edilmiş — tamamen masanızda çalıştırma yeteneğinin kilidini açar.
AMD Ryzen AI Max (Strix Halo) Mini Bilgisayarlar
En Düşük Maliyet
AMD'nin Ryzen AI Max+ Strix Halo
mimarisi, tamamen yeni bir bütçe yapay zeka mini bilgisayar kategorisi yarattı. GMKtec, Beelink, Corsair, NIMO, Bosgame, FAVM gibi birçok üretici artık ~₺87,8 bin altında 128 GB birleşik belleğe sahip sistemler sunuyor.
Apple Mac Studio (M4 Ultra)
Kapasite Lideri
Mac Studio, yerel yapay zeka ortamında benzersiz bir konuma sahiptir. Apple'ın Birleşik Bellek Mimarisi (UMA), tek bir kompakt masaüstü biriminde hem CPU hem de GPU'nun erişebileceği 256 GB'a kadar bellek sağlar — kümelemeye gerek yoktur.
Bu, onu en büyük açık kaynaklı modelleri yükleyebilen tek uygun fiyatlı
cihaz yapar. Int4'e kuantize edilmiş 400 milyar parametreli bir model, 256 GB konfigürasyonda tamamen belleğe sığar.
Apple Mac Studio (M5 Ultra)
Yaklaşan Rakip
Apple'ın yeni nesil M5 Ultra'nın, 2026 sonunda piyasaya sürülmesi bekleniyor ve M4'ün ana zayıflığı olan yapay zeka modeli eğitim performansını ele alacağı söyleniyor. TSMC'nin 2nm süreci üzerine inşa edilen çipin, 1.2 TB/s'yi aşan bant genişliğiyle 512 GB'a kadar birleşik bellek konfigürasyonları sunması bekleniyor.
512 GB M5 Ultra, kuantize edilmemiş (tam hassasiyet) sınır modellerini çalıştırabilen ilk tüketici cihazı olacaktır. 1.2+ TB/s'lik yüksek bellek bant genişliği, çok uzun bağlam pencereleriyle sürekli yüksek verimli çıkarım gerektiren etmen yapay zeka iş akışlarını destekler.
Tiiny AI
Cep AI Süperbilgisayarı
2026'da Kickstarter'da ₺61.400 karşılığında piyasaya sürülen Tiiny.ai Cep AI Bilgisayarı, 80GB LGDDR5X belleğe ve 1TB SSD'ye sahip, her yerde yerel olarak 120B AI modellerini çalıştırabilen bir cep süperbilgisayarıdır.
300 gram ağırlığında (142×22×80mm) ve standart USB-C ile çalışan bu cihaz, yenilikçi iş uygulamalarını destekler. Tiiny AI, GPT-OSS-120B için saniyede 21.14 token çıktı hızı bildirmektedir.
Tenstorrent
Açık Kaynak Donanım
Efsanevi çip mimarı Jim Keller liderliğindeki Tenstorrent, temelde farklı bir felsefeyi temsil ediyor: RISC-V üzerine inşa edilmiş açık kaynak donanım, açık kaynak yazılım ve zincirleme bağlantı ile modüler ölçekleme.
Tensix
yapay zeka çekirdekleri doğrusal olarak ölçeklenmek üzere tasarlanmıştır: daha fazla kart eklediğinizde iletişim ek yüküyle mücadele eden GPU'ların aksine, Tenstorrent çipleri verimli bir şekilde döşenmek üzere inşa edilmiştir.
Razer ile ortaklık kuran Tenstorrent, Thunderbolt aracılığıyla herhangi bir dizüstü veya masaüstü bilgisayara bağlanan kompakt bir harici yapay zeka hızlandırıcı yayınladı — mevcut donanımı hiçbir şeyi değiştirmeden bir yapay zeka iş istasyonuna dönüştürüyor.
Yapay Zeka NAS — Ağa Bağlı Depolama
Depolama + Yapay Zeka
NAS tanımı, pasif depolamadan aktif zekaya kaydı. Yeni nesil ağ depolama cihazları, hafif NPU tabanlı çıkarımdan tam GPU hızlandırmalı LLM dağıtımına kadar doğrudan AI işleme entegre ediyor.
AI özellikli bir NAS, ayrı bir AI cihazına olan ihtiyacı ortadan kaldırır ve sıfır ağ aktarım gecikmesiyle daha büyük miktarlardaki verilerin doğrudan işlenmesine olanak tanır.
İşletmeniz için doğru AI mini bilgisayarını seçmekte yardıma mı ihtiyacınız var?
Mühendislerimiz AI donanım gereksinimlerinizi değerlendirebilir ve tam yapılandırılmış bir AI sistemi kurabilir.
Ücretsiz Donanım Değerlendirmesi Alın →4 İş İstasyonları
AI İş İstasyonları & Masaüstü Bilgisayarlar ₺132.000 – ₺658.000
İş istasyonu katmanı, ayrık PCIe grafik kartlarını ve standart kule kasaları kullanır. Mini bilgisayar katmanının sabit birleşik mimarilerinin aksine, bu katman modülerlik sunar — teknoloji geliştikçe bileşenleri yükseltebilir, daha fazla GPU ekleyebilir veya kartları değiştirebilirsiniz.
VRAM ile Hızı Anlamak
AI için GPU seçimini iki rekabetçi faktör belirler:
Tüketici kartları (RTX 5090 gibi) hızı maksimize eder ancak sınırlı VRAM sunar — tipik 24–32 GB. Profesyonel kartlar (RTX PRO 6000 Blackwell gibi) VRAM'i maksimize eder — kart başına 96 GB'a kadar — ancak hesaplama birimi başına daha pahalıdır.
VRAM kısıtlayıcı faktördür. Yetersiz belleğe sahip hızlı bir kart AI modelini hiç yükleyemez. Yeterli belleğe sahip daha yavaş bir kart modeli çalıştırır — sadece daha uzun yanıt süreleriyle.
Tüketici GPU'ları
| Yapılandırma | Toplam VRAM | Bağlantı | Tah. Maliyet |
|---|---|---|---|
| 2× RTX 3090 (Kullanılmış) | 48 GB | NVLink | ~₺131,6 bin |
| 2× RTX 4090 | 48 GB | PCIe Gen 5 | ₺175.500 |
| 2× RTX 5090 | 64 GB | PCIe Gen 5 | ₺307.200 |
Profesyonel GPU'lar
| Yapılandırma | Toplam VRAM | Bağlantı | Tah. Maliyet |
|---|---|---|---|
| 2× RTX A6000 En İyi Fiyat/Performans | 96 GB | NVLink | ₺307.200 |
| 2× RTX 6000 Ada | 96 GB | PCIe Gen 5 | ₺570.500 |
| 1× RTX PRO 6000 Blackwell | 96 GB | NVLink | ₺351.100 |
| 4× RTX PRO 6000 Blackwell | 384 GB | PCIe Gen 5 | ₺1.404.300 |
Veri Merkezi GPU'ları
| Yapılandırma | Toplam VRAM | Bağlantı | Tah. Maliyet |
|---|---|---|---|
| 1× L40S | 48 GB | PCIe 4.0 (pasif soğutma) | ₺307.200 |
| 1× A100 PCIe | 80 GB | PCIe 4.0 | ₺438.800 |
| 1× H200 NVL | 141 GB | NVLink | ₺1.316.500 |
| 4× H200 NVL | 564 GB | NVLink | ₺5.266.000 |
| 1× B200 SXM | 180 GB | NVLink 5 (1,8 TB/sn) | ₺1.316.500 |
| 8× B200 SXM | 1.440 GB | NVLink 5 (1,8 TB/sn) | ₺10.531.900 |
Çin GPU'ları
Çin'in yerel GPU ekosistemi hızla olgunlaştı. Çeşitli Çinli üreticiler artık rekabetçi özelliklerle ve önemli ölçüde daha düşük fiyatlarla iş istasyonu sınıfı AI GPU'ları sunuyor.
| Yapılandırma | Toplam VRAM | Bellek Türü | Tah. Maliyet |
|---|---|---|---|
| 1× Moore Threads MTT S4000 | 48 GB | GDDR6 | ₺35.100 |
| 4× Moore Threads MTT S4000 | 192 GB | GDDR6 | ₺153.600 |
| 8× Moore Threads MTT S4000 | 384 GB | GDDR6 | ₺285.200 |
| 1× Hygon DCU Z100 | 32 GB | HBM2 | ₺109.700 |
| 1× Biren BR104 | 32 GB | HBM2e | ~₺131,6 bin |
| 8× Biren BR104 | 256 GB | HBM2e | ₺1.053.200 |
| 1× Huawei Ascend Atlas 300I Duo | 96 GB | HBM2e | ₺52.700 |
| 8× Huawei Ascend Atlas 300I Duo | 768 GB | HBM2e | ₺438.800 |
Yakında
| Yapılandırma | Toplam VRAM | Durum | Tah. Maliyet |
|---|---|---|---|
| RTX 5090 128 GB | 128 GB | Çin mod. — standart SKU değil | ₺219.400 |
| RTX Titan AI | 64 GB | 2027 Bekleniyor | ~₺131,6 bin |
NVIDIA DGX Station
Kurumsal Apex
NVIDIA DGX Station, veri merkezi performansını ofis ortamına getiren su soğutmalı, masaüstü süper bilgisayardır
. Son sürüm GB300 Grace Blackwell Süperçip'ini kullanır.
Blackwell Ultra
sürümü, bellek yoğunluğunu ve hesaplama gücünü artırır, özel modelleri sıfırdan eğitmek veya devasa MoE (Uzmanlar Karışımı) mimarilerini yerel olarak çalıştırmak isteyen kuruluşlar için tasarlanmıştır.
Önceki nesil Ampere mimarisine dayalı olsa da, güvenilir çıkarım ve ince ayar için endüstri standardı olmaya devam ediyor. Blackwell için bütçesi olmayan ve AI alanına giren ekipler için ideal.
Pahalı olmasına rağmen, DGX Station ~₺13,2 milyon değerinde bir sunucu rafını ve ilişkili soğutma altyapısını değiştirir. Standart duvar prizine takılır. Bu, sunucu odası
ek yükünü tamamen ortadan kaldırır.
İşletmeniz için doğru AI iş istasyonunu seçmekte yardıma mı ihtiyacınız var?
Mühendislerimiz AI donanım gereksinimlerinizi değerlendirebilir ve tam yapılandırılmış bir AI sistemi kurabilir.
Ücretsiz Donanım Değerlendirmesi Alın →5 Sunucular
AI Sunucuları ₺658,2 bin – ₺8,8 milyon
İşletmeniz aynı anda çok sayıda çalışana hizmet vermek, temel sınıf modelleri tam hassasiyetle çalıştırmak veya özel veriler üzerinde özel modelleri ince ayarlamak gerektiğinde — sunucu katmanına geçersiniz.
Bu, yüksek bant genişlikli bellekli (HBM) özel AI hızlandırıcı kartlarının, özel bağlantıların ve rafa monte edilebilir veya masaüstü form faktörlerinin alanıdır. Donanım daha pahalıdır, ancak kullanıcı başına maliyet ölçekte önemli ölçüde düşer.
Intel Gaudi 3
Ölçekte En İyi Değer
Intel'in Gaudi 3 hızlandırıcısı, baştan sona bir AI eğitim ve çıkarım çipi olarak tasarlanmıştır — dönüştürülmüş bir grafik kartı değil. Her kart, ayrı ağ bağdaştırıcılarına duyulan ihtiyacı ortadan kaldıran entegre 400 Gb Ethernet ağı ile 128 GB HBM2e belleği sağlar.
Gaudi 3 iki form faktöründe mevcuttur:
- PCIe Kartı (HL-338): Mevcut sunuculara entegrasyon için standart PCIe form faktörü. Tahmini fiyat: kart başına ~₺526,6 bin.
- OAM (OCP Hızlandırıcı Modülü): Bulut veri merkezleri için yüksek yoğunluklu OCP standardı. Toplu 8 çipli kitler halinde satın alındığında çip başına ₺685.700 (temel plakayla toplam ~₺5,5 milyon).
8 kartlı bir Gaudi 3 sunucusu, karşılaştırılabilir bir NVIDIA H100 sisteminden çok daha düşük maliyetle toplam 1 TB AI belleği sunar.
AMD Instinct MI325X
Maksimum Yoğunluk
AMD Instinct MI325X, kart başına 256 GB HBM3e belleğe sahiptir — Intel Gaudi 3'ün iki katı. Toplam 1 TB AI belleğine ulaşmak için Intel'de 8 karta karşılık yalnızca 4 kart gereklidir.
MI325X, sistem başına Gaudi 3'ten daha pahalıdır ancak daha hızlı ve yoğundur. Maksimum verim gerektiren iş yükleri için — daha fazla kullanıcı için gerçek zamanlı çıkarım veya büyük veri kümeleri üzerinde özel modeller eğitme — daha yüksek yatırım, düşük gecikme ve daha basit altyapı ile kendini amorti eder.
Huawei Ascend
Tam Yığın Alternatif
Huawei, tam AI altyapı yığınını çoğaltmıştır: özel çip (Ascend 910B/C), özel bağlantılar (HCCS) ve eksiksiz bir yazılım çerçevesi (CANN). Sonuç, Batı tedarik zincirlerinden bağımsız olarak çalışan ve karşılaştırılabilir NVIDIA H100 kümelerinden çok daha düşük maliyetle çalışan kendi kendine yeten bir ekosistemdir.
Intel Xeon 6 (Granite Rapids)
Bütçe Sunucusu
2026'da sessiz bir devrim, CPU tabanlı AI çıkarımının yükselişidir. Intel Xeon 6 işlemcileri, standart DDR5 RAM üzerinde AI iş yüklerini mümkün kılan AMX (Gelişmiş Matris Uzantıları) içerir — GPU belleğinden çok daha ucuzdur.
Çift soketli Xeon 6 sunucusu, GPU belleğinin maliyetinin çok küçük bir kıyasına 1 TB ila 4 TB DDR5 RAM tutabilir. Çıkarım hızları yavaştır, ancak toplu işleme için — hızın önemsiz olduğu ancak zekanın ve kapasitenin çok önemli olduğu durumlar — bu dönüştürücüdür.
Örnek: Bir KOBİ gece boyunca 100.000 taranmış fatura yükler. Xeon 6 sunucusu, verileri mükemmel şekilde çıkarmak için +400B AI modeli çalıştırır. Görev 10 saat sürer, ancak donanım maliyeti GPU sunucusundan çok daha düşüktür.
Doğru AI sunucu altyapısını seçmek için yardıma mı ihtiyacınız var?
Altyapı ekibimiz, Intel Gaudi'den NVIDIA DGX'e kadar özel yazılımlarla birleştirilmiş tam AI sunucu çözümleri tasarlar ve devreye alır — işletmeniz için AI'nın yeteneklerini ortaya çıkarmak için.
Sunucu Mimarisi Teklifi İsteyin →6 Edge AI
Edge AI & Retrofit Mevcut Altyapının Yükseltilmesi
Her KOBİ'nin özel bir AI sunucusuna veya mini bilgisayara ihtiyacı yoktur. Çoğu, mevcut altyapıya düşük maliyetle AI yetenekleri ekleyerek — dizüstü bilgisayarları, masaüstlerini ve ağ cihazlarını yükseltebilir.
M.2 AI Hızlandırıcılar: Hailo-10
Hailo-10, SSD'ler için kullanılan aynı yuvaya sahip standart bir M.2 2280 modülüdür — mevcut herhangi bir bilgisayara özel AI işleme ekler. Birim başına ~~₺6, ve sadece 5–8W güç tüketimiyle, donanım değiştirmeden filo çapında AI yükseltmeleri sağlar.
Kullanım alanları: Yerel toplantı transkripsiyonu (Whisper), gerçek zamanlı altyazı, sesli dikte, küçük model çıkarımı (Phi-3 Mini). Bu kartlar büyük LLM'leri çalıştıramaz ancak belirli, sürekli AI görevlerinde mükemmeldir — ses verilerinin yerel olarak işlenmesini ve asla buluta gönderilmemesini sağlar.
Copilot+ Bilgisayarlar (NPU Dizüstüleri)
Qualcomm Snapdragon X Elite, Intel Core Ultra veya AMD Ryzen AI çipli dizüstü bilgisayarlar, özel Sinirsel İşlem Birimleri (NPU) içerir — özelleştirilmiş AI çipleri. Bunlar büyük LLM'leri çalıştıramaz ancak küçük, sürekli AI görevlerini halleder: canlı transkripsiyon, arka plan bulanıklaştırma, yerel Recall
özellikleri ve Microsoft Phi-3 gibi hafif modelleri çalıştırma.
NPU'lar TOPS (Saniyede Tera İşlem) ile derecelendirilir; bu, ne kadar AI işi kaldırabileceklerini ölçer. 2026'daki en güçlü Copilot+ PC'lerde ~50 TOPS vardır. Daha yüksek TOPS, daha hızlı yanıtlar ve biraz daha büyük AI modellerini işleme yeteneği demektir.
9 AI Modelleri
Açık Kaynaklı AI Modelleri (2026–2027)
AI modeli seçimi donanım gereksinimlerini belirler — ancak AI Model Kuantizasyonu bölümünün gösterdiği gibi, kuantizasyon sınır sınıfı modellerin tam hassasiyetli dağıtımın gerektirdiğinin küçük bir maliyetiyle çalıştırılmasını sağlar.
Aşağıdaki tablo, mevcut ve gelecek açık kaynaklı AI modellerine genel bir bakış sunar.
| Model | Boyut | Mimari | Bellek (FP16) | Bellek (INT4) |
|---|---|---|---|---|
| Llama 4 Behemoth | 288B (aktif) | MoE (~2T toplam) | ~4 TB | ~1 TB |
| Llama 4 Maverick | 17B (aktif) | MoE (400B toplam) | ~800 GB | ~200 GB |
| Llama 4 Scout | 17B (aktif) | MoE (109B toplam) | ~220 GB | ~55 GB |
| DeepSeek V4 | ~70B (aktif) | MoE (671B toplam) | ~680 GB | ~170 GB |
| DeepSeek R1 | 37B (aktif) | MoE (671B toplam) | ~140 GB | ~35 GB |
| DeepSeek V3.2 | ~37B (aktif) | MoE (671B toplam) | ~140 GB | ~35 GB |
| Kimi K2.5 | 32B (aktif) | MoE (1T toplam) | ~2 TB | ~500 GB |
| Qwen 3.5 | 397B (aktif) | MoE (A17B) | ~1.5 TB | ~375 GB |
| Qwen 3-Max-Thinking | Büyük | Yoğun | ~2 TB | ~500 GB |
| Qwen 3-Coder-Next | 480B (A35B aktif) | MoE | ~960 GB | ~240 GB |
| Mistral Large 3 | 123B (41B aktif) | MoE (675B toplam) | ~246 GB | ~62 GB |
| Ministral 3 (3B, 8B, 14B) | 3B–14B | Yoğun | ~6–28 GB | ~2–7 GB |
| GLM-5 | 44B (aktif) | MoE (744B toplam) | ~1.5 TB | ~370 GB |
| GLM-4.7 (Thinking) | Büyük | Yoğun | ~1.5 TB | ~375 GB |
| MiMo-V2-Flash | 15B (aktif) | MoE (309B toplam) | ~30 GB | ~8 GB |
| MiniMax M2.5 | ~10B (aktif) | MoE (~230B toplam) | ~460 GB | ~115 GB |
| Phi-5 Reasoning | 14B | Yoğun | ~28 GB | ~7 GB |
| Phi-4 | 14B | Yoğun | ~28 GB | ~7 GB |
| Gemma 3 | 27B | Yoğun | ~54 GB | ~14 GB |
| Pixtral 2 Large | 90B | Yoğun | ~180 GB | ~45 GB |
| Stable Diffusion 4 | ~12B | DiT | ~24 GB | ~6 GB |
| FLUX.2 Pro | 15B | DiT | ~30 GB | ~8 GB |
| Open-Sora 2.0 | 30B | DiT | ~60 GB | ~15 GB |
| Whisper V4 | 1.5B | Yoğun | ~3 GB | ~1 GB |
| Med-Llama 4 | 70B | Yoğun | ~140 GB | ~35 GB |
| Legal-BERT 2026 | 35B | Yoğun | ~70 GB | ~18 GB |
| Finance-LLM 3 | 15B | Yoğun | ~30 GB | ~8 GB |
| CodeLlama 4 | 70B | Yoğun | ~140 GB | ~35 GB |
| Molmo 2 | 80B | Yoğun | ~160 GB | ~40 GB |
| Granite 4.0 | 32B (9B aktif) | Hybrid Mamba-Transformer | ~64 GB | ~16 GB |
| Nemotron 3 | 8B, 70B | Yoğun | ~16–140 GB | ~4–35 GB |
| EXAONE 4.0 | 32B | Yoğun | ~64 GB | ~16 GB |
| Llama 5 Frontier | ~1.2T (toplam) | MoE | ~2.4 TB | ~600 GB |
| Llama 5 Base | 70B–150B | Yoğun | ~140–300 GB | ~35–75 GB |
| DeepSeek V5 | ~600B (toplam) | MoE | ~1.2 TB | ~300 GB |
| Stable Diffusion 5 | NBT | DiT | — | — |
| Falcon 3 | 200B | Yoğun | ~400 GB | ~100 GB |
Önce donanımı satın almayın. İşletme ihtiyaçlarınıza uygun model sınıfını belir, ardından en ekonomik donanım katmanını tespit etmek için nicemleme uygulayın.
~₺131,6 bin ile ₺6.582.500 yatırım arasındaki fark genellikle model boyutu gereksinimlerine ve eşzamanlı kullanıcı sayısına bağlıdır.
AI Model Manzarasını Şekillendiren Trendler
- Standart olarak yerel çoklu ortam desteği. Yeni modellerin, görüntü, ses ve video üzerinde aynı anda eğitilir — eğitim sonrası eklenen ayrı yetenekler şeklinde değil. Bu, tek bir modelin belge analizi, görüntü anlama ve sesli etkileşimi yönetebileceği anlamına gelir.
- Küçük modellerin büyük model yeteneklerine ulaşması. Phi-5 (14B) ve MiMo-V2-Flash, mimari yeniliğin sınır seviyesi akıl yürütmeyi dizüstü bilgisayarda çalışan modellere sıkıştırabildiğini gösteriyor. "Büyük daha iyidir" dönemi sona eriyor.
- Genellemeden ziyade uzmanlaşma. Her şey için tek bir devasa model yerine, bir ajan çerçevesi tarafından yönetmanlaşmış modellerden oluşan topluluklara doğru bir eğilim var — bir kodlama modeli, bir akıl yürütme modeli, bir görü modeli. Bu, model başına donanım gereksinimlerini azaltırken genel kaliteyi artırır.
- Ajanik AI. Kimi K2.5 ve Qwen 3 gibi modeller, karmaşık görevleri özerk olarak parçalara ayırmak, harici araçları çağırmak ve diğer modellerle koordine olmak üzere tasarlanmıştır. Bu
ajan sürüsü
paradigması, uzun oturumlar boyunca sürekli verim gerektirir — GB10 ve M5 Ultra gibi yüksek bant genişlikli donanımı tercih eder. - Video ve 3D üretiminin olgunlaşması. Open-Sora 2.0 ve FLUX.2 Pro, yerel video üretiminin pratik hale geldiğinin sinyalini veriyor. 2027'ye kadar, iş istasyonu sınıfı donanımda çalışan gerçek zamanlı video düzenleme asistanları bekleyin.
10 Güvenlik
Maksimum Güvenlik için Mimari
Yerel AI donanımının birincil avantajı performans değil — veri egemenliğidir. AI sunucunuz başkasının bulutunda değil de güvenlik duvarınızın arkasında çalıştığında, hassas verileriniz binanızı asla terk etmez.
Havadan Yalıtılmış API Mimarisi, AI sunucusunu fiziksel olarak internetten izole ederken yetkili çalışanların bir API arayüzü üzerinden erişmesini sağlar.
Bu mimari bir Dijital Kasa
oluşturur. Broker Sunucusu ele geçirilse bile, bir saldırgan yalnızca metin sorguları gönderebilir — AI Sunucusu'nun dosya sistemine, model ağırlıklarına, ince ayar verilerine veya depolanan belgelere erişemez.
Özel yapım AI çözümleriyle güvenli bir AI dağıtımına mı ihtiyacınız var?
Mühendislerimiz, verilerin asla tesis dışına çıkmamasını sağlarken işletmenize en son teknoloji AI yetenekleri sunan air-gapped AI mimarileri tasarlar ve devreye alır.
Güvenli AI Mimarisi Tartışın →11 Ekonomi
Ekonomik Karar: Yerel mi Bulut mu?
Yerel AI donanımına geçiş, OpEx'ten (operasyonel harcama — aylık bulut API ücretleri) CapEx'e (sermaye harcaması — bilançonuzda varlık haline gelen tek seferlik donanım yatırımı) bir kaymadır.
Sözleşmeleri analiz etmek için 200B model çalıştıran bir hukuk firmasını düşünün:
Günde 1.000 sorguda, bir DGX Spark kendini bulut API maliyetlerine kıyasla 2 aydan kısa sürede amorti eder. Daha yüksek kullanım seviyelerinde, başa baş süresi haftalara iner.
Aşağıdakileri hesaba kattığınızda ekonomi daha da olumlu hale gelir:
- Aynı donanımı paylaşan birden çok çalışan (DGX Spark 2–5 eşzamanlı kullanıcıya hizmet verir)
- Token başına fiyatlandırma yok — karmaşık, çok adımlı akıl yürütme görevleri ekstra maliyet getirmez
- Özel verilerle ince ayar — çoğu bulut API'si ile imkansız, yerel donanımda ücretsiz
- Donanımış değeri — AI donanımı ikinci el piyasada önemli değerini korur