NVIDIA DGX Spark – en bogstørrelses-enhed, der kan køre AI-modeller med 200 milliarder parametre (400 milliarder, n sammenkoblet) – repræsenterer den nye æra for desktop-AI-ejerskab.

1 Fundament
Hvorfor lokal AI? Forretningsargumentet for ejerskab

I begyndelsen af 2020'erne var kunstig intelligens en service, man lejede — timevis, per token, per API-kald. I 2026 har paradigmet skiftet. Den hardware, der kræves for at køre GPT-4-klasse intelligens, passer nu på dit skrivebord og koster mindre end en brugt bil.

Vedvarende afhængighed af kun cloud-AI medfører et strategisk trilemma:

  • Stigende omkostninger. API-gebyrer per token skalerer lineært med brug. Et advokatfirma, der behandler 1.000 kontrakter om dagen, kan stå over for ca. 224.000 kr. i årlige API-omkostninger.
  • Dataeksponering. Hver forespørgsel sendt til en cloud-API er data, der forlader dit netværk og er udsat for risici vedrørende datasikkerhed og privatliv.
  • Ingen eller kostbar tilpasning. Cloudmodeller er generiske. De kan ikke nemt eller omkostningseffektivt finjusteres på brugerdefinerede data, interne forretningsprocesser eller forretningsintelligens.

Lokal AI-hardware løser alle tre. Den omdanner variable API-afgifter til et fast kapitalaktiv, sikrer at data aldrig forlader LAN'et og muliggør dyb tilpasning gennem finjustering på forretningsdata.

2 Reducerer omkostninger
Kvantisering: Kør større AI-modeller på billigere hardware

Kvantisering er et koncept, der fundamentalt ændrer økonomien i lokal AI.

Enkelt sagt komprimerer kvantisering en AI-models hukommelsesfodaftryk. En standardmodel gemmer hver parameter som et 16-bit floating-point-tal (FP16). Kvantisering reducerer dette til 8-bit (Int8), 4-bit (Int4) eller endnu lavere — hvilket dramatisk formindsker den mængde hukommelse, der kræves for at køre modellen.

Kvantisering resulterer i en lille reduktion i outputkvalitet — ofte umærkelig for forretningsopgaver som sammenfatning, udkast og analyse — til gengæld for en massiv reduktion i hardwareomkostninger.

Nødvendig hukommelse: 400B AI-model ved forskellige præcisionsniveauer
FP16
Fuld præcision
~800 GB
Int8
Halv størrelse
~400 GB
Int4
Kvart
~200 GB
FP16 — Maksimal kvalitet, maksimal omkostning
Int8 — Næsten perfekt kvalitet, halv pris
Int4 — Høj kvalitet, en fjerdedel af prisen
Forretningsmæssig indvirkning

En 400B-model med fuld præcision kræver ~800 GB hukommelse – en serverinvestering på ca. 1,3 mio. kr.. Den samme model kvantiseret til Int4 kræver kun ~200 GB og kan køre på to sammenkoblede DGX Spark (GB10 Superchip-baserede) mini-pc'er for ca. 60.000 kr..

Mixture of Experts (MoE)

Mixture of Experts er et andet AI-modelarkitektur-trick, der gør det muligt at implementere enorme modeller uden de enorme hukommelsesomkostninger.

I stedet for at bruge alle parametre til hvert spørgsmål aktiverer en MoE-model kun en brøkdel af sin kapacitet via sparse activation.

En MoE-model med 2 billioner parametre som Llama 4 Behemoth aktiverer kun 288B parametre per forespørgsel – og leverer topniveau-intelligens for en brøkdel af hukommelsesomkostningerne.

Afvejningen

MoE-modeller er lidt mindre effektive til simple opgaver som sammenfatning og klassifikation sammenlignet med dense modeller af samme størrelse. Til vidensarbejde og ræsonnering såsom kompleks analyse, kodegenerering og forskning udmærker MoE-modeller sig.

Sparse activation resulterer i hurtigere inferenshastighed og kortere responstider.

3 Mini-pc'er
AI-mini-pc'er 11.200 kr. – 75.000 kr.

HP ZGX Nano AI på en kvindes hånd

Den mest disruptive udvikling i 2026 er højkapacitets-AI-beregning i mini-pc-format. Enheder ikke større end en hardcover-bog kører nu AI-modeller, der for to år siden krævede serverrum.

NVIDIA GB10-økosystemet (DGX Spark)

Præstationsleder

NVIDIA logo

NVIDIA DGX Spark har defineret denne kategori. I 2026 har GB10 Superchip — der kombinerer en ARM Grace CPU med en Blackwell GPU — skabt et helt økosystem. ASUS, GIGABYTE, Dell, Lenovo, HP, MSI og Supermicro producerer alle GB10-baserede systemer, hver med forskellige formfaktorer, køleløsninger og medfølgende software.

NVIDIA GB10-økosystem ASUS, GIGABYTE, Dell, Lenovo, HP, MSI og Supermicro
Fra ca. 30.000 kr.
Hukommelse
128 GB
LPDDR5X Unified
Beregning
~1 PFLOP
FP8 AI-præstation
Netværk
10 GbE + Wi-Fi 7
ConnectX til clustering
Lager
4 TB SSD
NVMe
Clustering
Ja (2 enheder)
256 GB samlet hukommelse
Software
NVIDIA AI Enterprise
CUDA, cuDNN, TensorRT
NVIDIA DGX Spark
ASUS Ascent GX10
Gigabyte AI TOP ATOM
DGX Quantum Machines combo
MSI EdgeExpert
Lenovo ThinkStation PGX
Dell Pro Max Desktop
NVIDEA DGX Spark
Clustering: 256 GB kapacitet

Ved at forbinde to GB10-enheder via den dedikerede højhastighedsnetværksport samler systemet ressourcer til et 256 GB hukommelsesrum. Dette giver mulighed for at køre meget store modeller — 400B+ parametre kvantiseret — helt på dit skrivebord for en samlet hardwareinvestering på cirka ca. 60.000 kr..

AMD Ryzen AI Max (Strix Halo) Mini-pc'er

Laveste omkostning

AMD Ryzen AI Max+ Strix Halo

AMD's Ryzen AI Max+ Strix Halo-arkitektur har skabt en helt ny kategori af budget-AI-mini-pc'er. En bølge af producenter — GMKtec, Beelink, Corsair, NIMO, Bosgame, FAVM — leverer nu 128 GB unified memory-systemer for under ca. 15.000 kr..

AMD Ryzen Max Mini-pc'er GMKtec EVO-X2 · Beelink · Corsair · NIMO AI · Bosgame M5 · FAVM FA-EX9
Fra ca. 11.200 kr.
Hukommelse
128 GB
LPDDR5 Delt (CPU+GPU)
Beregning
~0.2 PFLOP
Integreret RDNA 3.5 GPU
Båndbredde
~200 GB/s
Hukommelsesbåndbredde
Strøm
~100W
Stille drift
Clustering
Nej
Kun standalone
OS
Windows / Linux
ROCm / llama.cpp
GMKtex EVO X2
Bosgame M5 AI
NIMO AI Mini PC
Beelink Mini PC
Beelink Mini PC
Corsair AI Workstation 300 Halo
FAVM FA EX9
GMK Ryzen Strix Halo Mini PC

Apple Mac Studio (M4 Ultra)

Kapacitetsleder

Mac Studio indtager en unik position i det lokale AI-landskab. Apples Unified Memory Architecture (UMA) giver op til 256 GB hukommelse tilgængelig for både CPU og GPU i en enkelt, kompakt desktopenhed — clustering ikke nødvendig.

Dette gør den til den eneste overkommelige enhed, der kan indlæse de største open-source-modeller. En 400-milliarder parameter model kvantiseret til Int4 passer helt i hukommelsen på 256 GB-konfigurationen.

Apple Mac Studio (M4 Ultra) Lederen i AI-kapacitet for en enhed
Fra ca. 30.000 kr.
Hukommelse
Op til 256 GB
Unified Memory (UMA)
Beregning
~0.5 PFLOP
Apple Neural Engine + GPU
Software
MLX Framework
Apple-optimiseret inferens
Begrænsning
Kun inferens
Langsom til træning/finjustering

Apple Mac Studio (M5 Ultra)

Kommende udfordrer

Apples næste generations M5 Ultra, forventet i slutningen af 2026, siges at adressere M4'ens primære svaghed: AI-modellens træningspræstation. Bygget på TSMC's 2nm-proces forventes den at tilbyde konfigurationer på op til 512 GB unified memory med en båndbredde på over 1,2 TB/s.

Apple Mac Studio (M5 Ultra) Det forventede AI-træningskraftværk
Est. ca. 75.000 kr.
Hukommelse
Op til 512 GB
Next-Gen Unified Memory
Beregning
~1.5+ PFLOP
2nm Neural Engine
Software
MLX 2.0+
Native træningsunderstøttelse
Egenskaber
Træning & inferens
CUDA-alternativ
Hukommelsesbåndbredde: 1,2 TB/s kapacitet

Den 512 GB M5 Ultra ville være den første forbrugerenhed, der kan køre ikke-kvantiserede (fuld præcision) frontier-modeller. Den høje hukommelsesbåndbredde på 1,2+ TB/s understøtter agentisk AI-arbejdsgange, der kræver vedvarende høj-throughput inferens med meget lange kontekstvinduer.

Tiiny AI

Lomme-AI-supercomputer

Tiiny AI

Udgivet på Kickstarter i 2026 for 8.900 kr. er Tiiny.ai Pocket AI Computer en lomme-supercomputer med 80GB LGDDR5X-hukommelse og en 1TB SSD, der understøtter kørsel af 120B AI-modeller lokalt hvor som helst.

Med 300 gram (142×22×80mm) og drevet af standard USB-C understøtter den innovative forretningsapplikationer. Tiiny AI rapporterer en outputhastighed på 21,14 tokens per sekund for GPT-OSS-120B.

Tiiny Pocket AI Computer
Tiiny Pocket AI Computer
Tiiny Pocket AI Computer
Tiiny Pocket AI Computer

Tenstorrent

Open source-hardware

Tenstorrent

Lederet af den legendariske chiparkitekt Jim Keller repræsenterer Tenstorrent en fundamentalt anden filosofi: open source-hardware bygget på RISC-V, open source-software og modulær skalering gennem daisy-chaining.

Tensix AI-kernerne er designet til at skale lineært: i modsætning til GPU'er, som kæmper med kommunikationsoverhoved, når du tilføjer flere kort, er Tenstorrent-chips bygget til at blive flislet effektivt.

I partnerskab med Razer har Tenstorrent udgivet en kompakt ekstern AI-accelerator, der forbindes til enhver bærbar eller stationær via Thunderbolt — og omdanner eksisterende hardware til en AI-arbejdsstation uden at udskifte noget.

Razer × Tenstorrent Kompakt AI Accelerator Ekstern Thunderbolt AI-accelerator
Pris Ukendt
Hukommelse per boks
12 GB
GDDR6
Chip
Wormhole n150
Tensix-kerner · RISC-V
Skalering
Op til 4 enheder
48 GB AI-kapacitet
Software
Fuldt open source
GitHub · TT-Metalium
Razer × Tenstorrent AI Accelerator
Razer × Tenstorrent AI Accelerator
Razer × Tenstorrent AI Accelerator
Razer × Tenstorrent AI Accelerator

AI NAS — Network Attached Storage

Lager + AI

Definitionen af NAS har skiftet fra passiv opbevaring til aktiv intelligens. En ny generation af netværksopbevaringsenheder integrerer AI-behandling direkte – fra let NPU-baseret inferens til fuld GPU-accelereret LLM-implementering.

En AI-kompatibel NAS eliminerer behovet for en separat AI-enhed og muliggør direkte behandling af større datamængder uden netværkstransferlatenstid.

QNAP AI NAS
Ugreen DXP4800 Pro
OmniCore AI NAS
Zetlab AI NAS

Har du brug for hjælp til at vælge den rigtige AI-mini-pc til din virksomhed?

Vores ingeniører kan vurdere dine AI-hardwarebehov og implementere et fuldt konfigureret AI-system.

Få en gratis hardwarevurdering →

4 Arbejdsstationer
AI-arbejdsstationer & stationære pc'er 19.000 kr. - 95.000 kr.

Arbejdsstationsniveauet bruger diskrete PCIe-grafikkort og standardtårnchassis. I modsætning til mini-pc-niveauets faste, integrerede arkitekturer tilbyder dette niveau modularitet – du kan opgradere enkelte komponenter, tilføje flere GPU'er eller udskifte kort, efterhånden som teknologien udvikler sig.

En0-grafikkort og en NVLink-bro tilbyder 96 GB samlet VRAM for cirka 44.300 kr..

Forståelse af VRAM vs. hastighed

To konkurrerende faktorer definerer GPU-valget til AI:

📦
VRAM-kapacitet
Bestemmer størrelsen af den model, du kan indlæse. Mere VRAM betyder større, mere kapable modeller. Dette er din intelligensloft.
Beregnehastighed
Bestemmer hvor hurtigt modellen reagerer. Højere beregnekapacitet betyder lavere latenstid per forespørgsel. Dette er din brugeroplevelse.

Forbrugerkort (som RTX 5090) maksimerer hastighed, men tilbyder begrænset VRAM – typisk 24–32 GB. Professionelle kort (som RTX PRO 6000 Blackwell) maksimerer VRAM – op til 96 GB per kort – men koster mere per beregningenhed.

VRAM er den bindende begrænsning. Et hurtigt kort med utilstrækkelig hukommelse kan slet ikke indlæse AI-modellen. Et langsommere kort med tilstrækkelig hukommelse kører modellen – bare med længere responstider.

Forbrugere-GPU'er

KonfigurationSamlet VRAMSammenkoblingAnslået pris2× RTX 3090 (brugt)
2× RTX 3090 (Brugt)48 GBNVLink19.000 kr.
2× RTX 409048 GBPCIe Gen 525.300 kr.
2× RTX 509064 GBPCIe Gen 544.300 kr.

Professionelle GPU'er

KonfigurationSamlet VRAMSammenkoblingAnslået pris2× RTX 3090 (brugt)
2× RTX 6000 Ada96 GBPCIe Gen 582.300 kr.
1× RTX PRO 6000 Blackwell96 GBNVLink50.700 kr.
4× RTX PRO 6000 Blackwell384 GBPCIe Gen 5202.600 kr.

Datacenter-GPU'er

KonfigurationSamlet VRAMSammenkoblingAnslået pris2× RTX 3090 (brugt)
1× L40S48 GBPCIe 4.0 (passiv køling)44.300 kr.
1× A100 PCIe80 GBPCIe 4.063.300 kr.
1× H200 NVL141 GBNVLink190.000 kr.
4× H200 NVL564 GBNVLink759.800 kr.
1× B200 SXM180 GBNVLink 5 (1,8 TB/s)190.000 kr.
8× B200 SXM1.440 GBNVLink 5 (1,8 TB/s)1.520.000 kr.

Kinesiske GPU'er

Kinas indenlandske GPU-økosystem er modnet hurtigt. Flere kinesiske producenter tilbyder nu AI-GPU'er i arbejdsstationsklasse med konkurcedygtige specifikationer og betydeligt lavere priser.

KonfigurationSamlet VRAMHukommelsestypeAnslået pris2× RTX 3090 (brugt)
1× Moore Threads MTT S400048 GBGDDR65.100 kr.
4× Moore Threads MTT S4000192 GBGDDR622.200 kr.
8× Moore Threads MTT S4000384 GBGDDR641.200 kr.
1× Hygon DCU Z10032 GBHBM215.800 kr.
1× Biren BR10432 GBHBM2e19.000 kr.
8× Biren BR104256 GBHBM2e152.000 kr.
1× Huawei Ascend Atlas 300I Duo96 GBHBM2e7.600 kr.
8× Huawei Ascend Atlas 300I Duo768 GBHBM2e63.300 kr.

Kommende

KonfigurationSamlet VRAMStatusAnslået pris2× RTX 3090 (brugt)
RTX 5090 128 GB128 GBKinesisk mod. – ikke en standard SKU31.700 kr.
RTX Titan AI64 GBForventes 202719.000 kr.
4x NVIDIA RTX PRO 6000 Blackwell
4x NVIDIA RTX PRO 6000 Blackwell
MSI NVIDIA RTX PRO 6000 Blackwell Server
NVIDIA RTX 5090
NVIDIA DGX Station – en vandkølet "datacenter på skrivebordet", der tilsluttes et standard stikkontakt.

NVIDIA DGX Station

Enterprise Apex

NVIDIA DGX Station er en vandkølet, skrivebordsmonteret supercomputer, der bringer datacenter-ydelse til et kontormiljø. Den seneste version bruger GB300 Grace Blackwell Superchip.

NVIDIA DGX Station GB300 Fremtidssikret Ultra
Anslået pris ca. 1,3 mio. kr.

Blackwell Ultra-versionen øger hukommelsestæthed og beregnekapacitet, designet til organisationer, der har brug for at træne brugerdefinerede modeller fra bunden eller køre massive MoE (Mixture of Experts)-arkitekturer lokalt.

Hukommelse
~1,5 TB+
HBM3e (ultrahurtig)
Beregning
~20+ PFLOPS
FP8 AI-præstation
Anvendelsestilfælde
Brugerdefineret træning
Modeludvikling
Strøm
Standard stikkontakt
Ingen serverrum påkrævet
NVIDIA DGX Station GB300 Blackwell Ultra
ASUS ExpertCenter Pro DGX GB300
MSI XpertStation WS300
NVIDIA DGX Station GB300 Blackwell Ultra
NVIDIA DGX Station A100 Tilgængelig AI-arbjedshest
Fra ca. 630.000 kr.

Selvom den er baseret på den tidligere generations Ampere-arkitektur, forbliver den industristandarden for pålidelig inferens og finjustering. Ideel til teams, der træder ind i AI-området uden budget til Blackwell.

Hukommelse
320 GB
4x 80GB A100 GPU'er
Beregning
2 PFLOPS
FP16 AI-ydelse
Flere brugere
5–8 samtidige
Moderat samtidighed
Strøm
Standard stikkontakt
Ingen serverrum påkrævet

Selvom den er dyr, erstatter DGX Station et ca. 2,2 mio. kr. serverrack og dets tilhørende køleinfrastruktur. Den tilsluttes et standard stikkontakt. Dette eliminerer serverrum-overheadet fuldstændigt.

Har du brug for hjælp til at vælge den rigtige AI-arbejdsstation til din virksomhed?

Vores ingeniører kan vurdere dine AI-hardwarebehov og implementere et fuldt konfigureret AI-system.

Få en gratis hardwarevurdering →

5 Servere
AI-servere 100.000 kr. - 1.300.000 kr.

Når din virksomhed har brug for at betjene mange medarbejdere samtidigt, køre foundation-class-modeller med fuld præcision eller finjustere brugerdefinerede modeller på proprietære data – træder du ind i server-niveauet.

Dette er domænet for dedikerede AI-acceleratorkort med høj båndbredde-hukommelse (HBM), specialiserede forbindelser og rack-monterbare eller skrivebordsmonterede formfaktorer. Hardwaren er dyrere, men prisen per bruger falder dramatisk i skala.

Intel Gaudi 3

Bedste værdi i skala

Intels Gaudi 3-accelerator blev designet fra bunden som en AI-trænings- og inferenschip – ikke et genbrugt grafikkort. Hvert kort giver 128 GB HBM2e-hukommelse med integreret 400 Gb Ethernet-netværk, hvilket eliminerer behovet for separate netværksadaptere.

Gaudi 3 er tilgængelig i to formfaktorer:

  • PCIe-kort (HL-338): Standard PCIe-formfaktor til integration i eksisterende servere. Anslået prissætning: ca. 90.000 kr. per kort.
  • OAM (OCP Accelerator Module): Højdensitets OCP-standard til cloud-datacentre. 98.900 kr. per chip ved køb i bulk 8-chips sæt (ca. 934.000 kr. i alt med bundkort).

En server med 8 Gaudi 3-kort leverer 1 TB samlet AI-hukommelse til langt lavere omkostninger end et sammenligneligt NVIDIA H100-system.

💾
Hukommelse per kort
128 GB
HBM2e – matcher DGX Spark i et enkelt kort
8-kort total
1 TB
1.024 GB samlet hukommelse til de største modeller
💰
Systemomkostninger
ca. 1,3 mio. kr.
Billigere end sammenlignelig NVIDIA H100-opsætning
Intel Gaudi 3 Baseboard HLB 325
Intel Gaudi 3 PCI card
Dell Intel Gaudi 3 server
Gigabyte Intel Gaudi 3 server

AMD Instinct MI325X

Maksimal tæthed

AMD Instinct MI325X indeholder 256 GB HBM3e-hukommelse per kort – dobbelt så meget som Intel Gaudi 3. Kun 4 kort er nødvendige for at nå 1 TB samlet AI-hukommelse, sammenlignet med 8 kort hos Intel.

💾
4-kort total hukommelse
1 TB
Halvt så mange kort som Intel for samme kapacitet
Båndbredde
6 TB/s
Per kort – muliggør samtidige brugere
💰
Systemomkostninger
ca. 1,5 mio. kr.
Instapomkostninger med 1 kort ca. 450.000 kr.
AMD Instinct MI325X server
Supermicro AMD Instinct MI325X server
AMD Instinct MI325X server
ASUS AMD Instinct MI325X server

MI325X er dyrere per system end Gaudi 3, men hurtigere og kompakter. Til arbejdsbelastninger, der kræver maksimal gennemløb – realtidsinferens til flere brugere eller træning af brugerdefinerede modeller på store datasætter – betaler den højere investering sig selv gennem reduceret latenstid og simplere infrastruktur.

Huawei Ascend

Full-stack-alternativ

Huawei

Huawei har replikeret den fulde AI-infrastrukturstack: brugerdefinerede chips (Ascend 910B/C), proprietære forbindelser (HCCS) og et komplet softwareframework (CANN). Resultatet er et selvstændigt økosystem, der opererer uafhængigt af vestlige forsyningskæder og til meget lavere omkostninger end sammenlignelige NVIDIA H100-klynger.

Huawei Atlas
Huawei Ascend AI family
Huawei Atlas 300
Huawei Atlas 800i Ascend 910c

Intel Xeon 6 (Granite Rapids)

Budgetserver

En stille revolution i 2026 er fremkomsten af CPU-baseret AI-inferens. Intel Xeon 6-processorer inkluderer AMX (Advanced Matrix Extensions), der muliggør AI-arbejdsbyrder på standard DDR5 RAM – hvilket er betydeligt billigere end GPU-hukommelse.

Afvejningen

En dual-socket Xeon 6-server kan indeholde 1 TB til 4 TB DDR5 RAM for en brøkdel af prisen for GPU-hukommelse. Inferenshastigheder er lave, men for batchbehandling – hvor hastighed er irrelevant, men intelligens og kapacitet er afgørende – er dette revolutionerende.

Eksempel: En SMV uploader 100.000 scannede fakturaer om natten. Xeon 6-serveren kører en +400B AI-model for ekstrahere data perfekt. Opgaven tager 10 timer, men hardwareomkostningerne er meget lavere end en GPU-server.

Har du brug for hjælp til at vælge den rigtige AI-serverinfrastruktur?

Vores infrastrukturteam designer og implementerer komplette AI-serverløsninger – fra Intel Gaudi til NVIDIA DGX – kombineret med skræddersyet software – for at frigøre AI-mulighederne for din virksomhed.

Anmod om serverarkitekturforslag →

6 Edge AI
Edge AI & Retrofit Opgradering af eksisterende infrastruktur

Ikke alle SMV'er har brug for en dedikeret AI-server eller mini-PC. Mange kan integrere intelligens i eksisterende infrastruktur – opgradere laptops, desktops og netværksenheder med AI-kapacitet til minimale omkostninger.

M.2 AI-acceleratorer: Hailo-10

Hailo-10 er en standard M.2 2280-modul – den samme slot der bruges til SSD'er – der tilføjer dedikeret AI-behandling til enhver eksisterende PC. Til ~ca. 1.100 kr. per enhed og med et strømforbrug på kun 5W muliggør den virksomhedsbrede AI-opgraderinger uden hardwareudskiftning.

📎
Formfaktor
M.2 2280
Passer i enhver standard SSD-slot
Ydeevne
20–50 TOPS
Optimeret til edge-inferens
💰
Omkostning
ca. 1.100 kr.
Per enhed – flådeopgradering for under ca. 22.400 kr.

Anvendelsestilfælde: Lokal mødertransskription (Whisper), realtidstekstning, diktering, inferens af små modeller (Phi-3 Mini). Disse kort kan ikke køre store LLM'er, men de udmærker sig ved specifikke, vedvarende AI-opgaver – sikrer at stemmedata behandles lokalt og aldrig sendes til skyen.

Copilot+ PC'er (NPU-laptops)

Bærbare computere med Qualcomm Snapdragon X Elite, Intel Core Ultra eller AMD Ryzen AI-chips indeholder dedikerede Neural Processing Units (NPU'er) – specialiserede AI-chips. Disse kan ikke køre store LLM'er, men håndterer små, vedvarende AI-opgaver: livetransskription, baggrundssløring, lokale Recall-funktioner og kørsel af letvægtsmodeller som Microsoft Phi-3.

NPU'er vurderes i TOPS (Tera Operations Per Second), som måler hvor meget AI-arbejde de kan håndtere. De mest kraftfulde Copilot+ PC'er i 2026 har ~50 TOPS. Højere TOPS betyder hurtigere svar og evnen til at håndtere lidt større AI-modeller.

9 AI-modeller
Open-source AI-modeller (2026–2027)

Valget af AI-model dikterer hardwarekravene – men som kapitlet om AI Model Kvantisering viste, tillader kvantisering at cutting-edge-modeller kan køre på hardware til en brøkdel af hvad fuldpræcisionsimplementering kræver.

Tabellen nedenfor giver et overblik over nuværende og kommende open-source AI-modeller.

ModelStørrelseArkitekturHukommelse (FP16)Hukommelse (INT4)
Llama 4 Behemoth288B (aktiv)MoE (~2T totalt)~4 TB~1 TB
Llama 4 Maverick17B (aktiv)MoE (400B totalt)~800 GB~200 GB
Llama 4 Scout17B (aktiv)MoE (109B totalt)~220 GB~55 GB
DeepSeek V4~70B (aktiv)MoE (671B totalt)~680 GB~170 GB
DeepSeek R137B (aktiv)MoE (671B totalt)~140 GB~35 GB
DeepSeek V3.2~37B (aktiv)MoE (671B totalt)~140 GB~35 GB
Kimi K2.532B (aktiv)MoE (1T totalt)~2 TB~500 GB
Qwen 3.5397B (aktiv)MoE (A17B)~1.5 TB~375 GB
Qwen 3-Max-ThinkingStorDense~2 TB~500 GB
Qwen 3-Coder-Next480B (A35B aktiv)MoE~960 GB~240 GB
Mistral Large 3123B (41B aktiv)MoE (675B totalt)~246 GB~62 GB
Ministral 3 (3B, 8B, 14B)3B–14BDense~6–28 GB~2–7 GB
GLM-544B (aktiv)MoE (744B totalt)~1.5 TB~370 GB
GLM-4.7 (Thinking)StorDense~1.5 TB~375 GB
MiMo-V2-Flash15B (aktiv)MoE (309B i alt)~30 GB~8 GB
MiniMax M2.5~10B (aktiv)MoE (~230B totalt)~460 GB~115 GB
Phi-5 Reasoning14BDense~28 GB~7 GB
Phi-414BDense~28 GB~7 GB
Gemma 327BDense~54 GB~14 GB
Pixtral 2 Large90BDense~180 GB~45 GB
Stable Diffusion 4~12BDiT~24 GB~6 GB
FLUX.2 Pro15BDiT~30 GB~8 GB
Open-Sora 2.030BDiT~60 GB~15 GB
Whisper V41.5BDense~3 GB~1 GB
Med-Llama 470BDense~140 GB~35 GB
Legal-BERT 202635BDense~70 GB~18 GB
Finance-LLM 315BDense~30 GB~8 GB
CodeLlama 470BDense~140 GB~35 GB
Molmo 280BDense~160 GB~40 GB
Granite 4.032B (9B aktiv)Hybrid Mamba-Transformer~64 GB~16 GB
Nemotron 38B, 70BDense~16–140 GB~4–35 GB
EXAONE 4.032BDense~64 GB~16 GB
Llama 5 Frontier~1.2T (total)MoE~2.4 TB~600 GB
Llama 5 Base70B–150BDense~140–300 GB~35–75 GB
DeepSeek V5~600B (total)MoE~1.2 TB~300 GB
Stable Diffusion 5Nader at bestemmeDiT
Falcon 3200BDense~400 GB~100 GB
Strategisk rådgivning

Køb ikke hardware først. Identificer den modelklasse der passer til dine forretningsbehov, anvend derefter kvantisering for at bestemme den mest omkostningseffektive hardwarelag.

Forskellen mellem en 19.000 kr. og en 949.800 kr. investering afhænger ofte af modelstørrelseskrav og antallet af samtidige brugere.

Trends der former AI-modellandskabet

  • Native multimodalitet som standard. Nye modeller trænes på tekst, billeder, lyd og video samtidigt – ikke som separate funktioner tilføjet efter træning. Dette betyder at en enkelt model håndterer dokumentanalyse, billedforståelse og stemmeinteraktion.
  • Små modeller opnår store-model-egenskaber. Phi-5 (14B) og MiMo-V2-Flash viser at arkitekturinnovation kan komprimere cutting-edge-logik til modeller der kører på en laptop. Æraen med "større er bedre" er ved at slutte.
  • Specialisering over generalisering. I stedet for én kæmpemodel til alt, går trenden mod ensembles af specialiserede modeller – et kodningsmodel, et ræsonnementsmodel, et visionsmodel – dirigeret af et agentframework. Dette reducerer hardwarekrav per model og forbedrer den samlede kvalitet.
  • Agentisk AI. Modeller som Kimi K2.5 og Qwen 3 er designet til selvstændigt at nedbryde komplekse opgaver, tilkalde eksterne værktøjer og koordinere med andre modeller. Dette agentsværm-paradigme kræver vedvarende datatrafik over lange sessioner – favoriserer hardware med høj båndbredde som GB10 og M5 Ultra.
  • Video og 3D-generering modner. Open-Sora 2.0 og FLUX.2 Pro indikerer at lokal videogenerering bliver praktisk. I 2027 kan du forvente realtidsvideo-redigeringsassistenter der kører på arbejstationsklasse-hardware.

10 Sikkerhed
Arkitektur til maksimal sikkerhed

Den primære fordel ved lokal AI-hardware er ikke ydeevne – det er datasuverænitet. Når din AI-server kører bag din firewall i stedet for i en andens sky, forlader dine følsomme data aldrig din bygning.

Air-Gapped API-arkitekturen isolerer fysisk AI-serveren fra internettet, mens den gøres tilgængelig for autoriserede medarbejdere via et API-interface.

Air-Gapped API-arkitektur
👤 Medarbejder Standardarbejdsstation
🔀 Broker Server Auth + UI + Routing
🔒 AI-server Air-gapped · Ingen internet
AI-boks

Denne arkitektur skaber en Digital Boks. Selv hvis Broker Serveren blev kompromitteret, kunne en angriber kun sende tekstforespørgsler – de kunne ikke få adgang til AI-serverens filsystem, modelvægte, finjusteringsdata eller lagrede dokumenter.

Har du brug for en sikker AI-implementering med skræddersyede AI-løsninger?

Vores ingeniører designer og implementerer air-gapped AI-arkitekturer der sikrer data aldrig forlader lokalet, samtidig med at din virksomhed får state-of-the-art AI-kapaciteter.

Diskuter Sikker AI-arkitektur →

11 Økonomi
Den økonomiske vurdering: Lokalt vs. cloud

Overgangen til lokal AI-hardware er et skift fra OpEx (driftsudgifter – månedlige cloud API-gebyrer) til CapEx (investeringsudgifter – en engangs-hardwareinvestering der bliver en aktivpost på din balance).

Overvej et advokatfirma, der kører en 200B-model til at analysere kontrakter:

☁️ Cloud-API
ca. 224.000 kr.
per år (på skala)
1.000 kontrakter/dag × Ukendt/1K tokens × 365 dage. Skalerer lineært med brug. Data forlader netværket.
🖥️ Lokal hardware (DGX Spark)
ca. 30.000 kr.
engangsinvestering
+ ca. 110 kr./måned i el. Ubegrænset brug. Data forlader aldrig LAN'et. Aktiv på balancen.

Ved 1.000 forespørgsler dagligt tjener en DGX Spark sig selv hjem på under 2 måneder sammenlignet med cloud-API-omkostninger. Ved højere brugsniveauer forkortes break-even-perioden til uger.

Økonomien bliver endnu mere fordelagtig, n medregner:

  • Flere medarbejdere deler samme hardware (DGX Spark understøtter 2–5 samtidige brugere)
  • Ingen prissætning per token - komplekse, flertrins ræsonneringsopgaver koster ikke ekstra
  • Finjustering med proprietære data - umuligt med de fleste cloud-API'er, gratis på lokal hardware
  • Gen-salgværdi af hardware - AI-hardware bevarer betydelig værdi på det sekundære marked