QNAP lanceert QAI-h1290FX, een edge-server voor private AI in bedrijven

QNAP heeft de QAI-h1290FX gepresenteerd, een edge-opslagserver ontworpen om generatieve AI-belastingen binnen het bedrijf uit te voeren, zonder afhankelijk te zijn van externe clouddiensten. De apparatuur combineert all-flash NVMe-opslag, AMD EPYC-processors, opties voor GPU-acceleratie met NVIDIA RTX, en het op ZFS gebaseerde besturingssysteem QuTS hero.

Dit aanbod komt op een moment dat veel organisaties willen experimenteren met of implementeren van interne assistenten, documentzoekmachines met RAG, privé taalmodellen en contentgeneratiestromen zonder gevoelige data naar externe platforms te sturen. QNAP probeert dit gat te vullen met een systeem dat opslag, computing, virtualisatie, containers en AI-toepassingen op één lokale oplossing integreert.

Een server voor het draaien van LLM en RAG binnen het bedrijf

De QAI-h1290FX is gericht op bedrijven, technische teams, ontwikkelaars en onderzoeksgroepen die taalmodellen of generatieve applicaties dicht bij hun gegevens willen laten draaien. Het gaat niet alleen om het opslaan van bestanden, maar om een platform dat ze kan bewegen, verwerken en ermee in realtime bedienen binnen AI-workflows.

Een concreet voorbeeld is RAG, oftewel Retrieval-Augmented Generation. Deze techniek koppelt een taalmodel aan een interne documentatie-database zodat het systeem antwoorden kan genereren met gebruik van bedrijfsinformatie. Bijvoorbeeld contracten, handleidingen, bedrijfsbeleid, technische documentatie, rapporten, dossiers of kennisbanken. In plaats van deze documenten extern te uploaden, kan een organisatie ze intern houden en een lokale assistent de informatie laten raadplegen volgens eigen veiligheidsregels.

QNAP richt zich ook op interne chatassistenten, bedrijfszoektoepassingen, beeldgeneratie met tools als Stable Diffusion of ComfyUI, en automatisering via n8n. In al deze scenario’s is het gedeelde kenmerk dat data binnen de bedrijfsinfrastructuur blijven, een pluspunt voor sectoren met vertrouwelijke informatie of strikte nalevingseisen.

De machine wordt geleverd met vooraf geïnstalleerde of klaar te maken tools zoals AnythingLLM, OpenWebUI en Ollama. Daarnaast geeft QNAP aan te werken aan integratie met andere applicaties zoals Stable Diffusion, ComfyUI, n8n en vLLM. Dit is belangrijk omdat de installatie, configuratie en het onderhoud van complexe AI-omgevingen vaak een grote belemmering vormen voor adoptie. Door deze processen te vereenvoudigen, wil QNAP het gebruik van lokale AI dichterbij brengen.

NVMe, AMD EPYC en NVIDIA RTX GPU’s

De QAI-h1290FX beschikt over twaalf U.2-sleuven compatibel met NVMe- of SATA-SSD’s. Deze all-flash architectuur is ontworpen voor hoge input/output-prestaties, ideaal bij grote datavolumes, vectorindexen, documenten, modellen en intensieve leesflows. Bij RAG-toepassingen helpt snelle opslag om bottlenecks te minimaliseren bij het ophalen van relevante fragmenten voor responsgeneratie.

De gekozen processor is een AMD EPYC 7302P met 16 kernen en 32 threads. Hoewel het geen nieuwe CPU is, biedt het een solide serverspecificatie voor virtualisatie, containers, opslagdiensten, parallelle taken en bedrijfsbelastingen. Voor AI-acceleratie ondersteunt de machine GPU’s zoals de NVIDIA RTX-serie, inclusief opties zoals de NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation, met tot 96 GB GPU-geheugen afhankelijk van de configuratie.

GPU-ondersteuning is een kernpunt. Veel inferentietaken, beeldgeneratie of taalmodel-uitvoering profiteren van CUDA, TensorRT en andere NVIDIA-accelaratietechnologieën. QNAP positioneert dit systeem als een alternatief voor het zelf opbouwen van GPU-werkstations, inclusief handmatige afhankelijkheden en configuraties. Volgens het bedrijf is het doel om die complexiteit te verminderen, zodat gebruikers AI-modellen en applicaties makkelijker kunnen inzetten.

Het systeem biedt ook native GPU-toegang in containers via Container Station en passthrough van GPU’s voor virtuele machines via Virtualization Station. Zo kunnen verschillende workloads gescheiden en efficiënt worden beheerd: bijvoorbeeld een documentassistent in een container, testomgevingen voor modellen in een VM, en opslagdiensten op QuTS hero.

ZFS, hoge snelheid netwerken en uitbreiding

Het op ZFS gebaseerde besturingssysteem QuTS hero biedt functies voor dataintegriteit, snapshots en inline deduplicatie. In een private AI-omgeving kunnen deze functies helpen bij het beveiligen van datasets, versiebeheer, modellen, configuraties en testresultaten. Snapshots maken rollback mogelijk, terwijl deduplicatie efficiënter met databestanden kan omgaan wanneer er herhalingen of vergelijkbare versies bestaan.

Qua connectiviteit beschikt de QAI-h1290FX over twee 25GbE-poorten en twee 2.5GbE-poorten. Verder maken PCIe-slots uitbreiding mogelijk tot 100GbE. Deze netwerkmogelijkheden zijn cruciaal omdat AI-belastingen veel datatransfers vereisen tussen werkstations, servers, repositories, back-ups en documentbeheersystemen. Een trage netwerkinfrastructuur kan de voordelen van snelle opslag en GPU beperken.

QNAP benadrukt ook ondersteuning voor JBOD-uitbreidingskasten om de capaciteit uit te breiden. Zo combineert dit apparaat kenmerken van een geavanceerde NAS, een applicatieserver en een edge-platform voor AI. Het kan aantrekkelijk zijn voor bedrijven die geen compleet cluster willen bouwen, maar toch meer prestaties en flexibiliteit wensen dan een standaard NAS.

De term “edge” staat hier niet uitsluitend voor een externe kantoorlocatie. Het kan ook slaan op een infrastructuur dicht bij de gegevens en gebruikers, binnen het bedrijfsperimeter. Voor bijvoorbeeld advocatendiensten, HR-afdelingen, creatieve teams, engineering of gezondheidszorg kan lokale verwerking van documenten en queries eenvoudiger en vertrouwelijker zijn.

Een antwoord op de groeiende interesse in privé AI

Deze introductie sluit aan bij de trend dat veel bedrijven AI-generatie willen benutten, maar niet altijd hun data willen delen met externe diensten. Redenen hiervoor kunnen zijn: vertrouwelijkheid, regelgeving, variabele kosten, afhankelijkheid van een provider, latentie of de behoefte aan maatwerk in modellen en workflows.

De QAI-h1290FX is geen concurrerend apparaat voor grote cloudclusters die getrainde modellen op grote schaal gebruiken. Het richt zich vooral op inferentie, privé-assistenten, documentzoek, automatisering en experimenten binnen het bedrijf. Voor velen vormt dit een haalbare eerste stap richting interne AI-infrastructuur.

Het is echter belangrijk te beseffen dat het lokaal draaien van AI nog technische kennis vereist. Beheer van modellen, updates, beveiliging, toegangscontrole, energieverbruik, backups en monitoring blijven noodzakelijk. Ook zullen niet alle grote modellen optimaal functioneren op dezelfde hardware. Geheugen van GPU’s, quantisatie, modelgrootte en gebruikersaantallen blijven kritieke factoren.

Het succes van het systeem hangt daarom mede af van hoe goed QNAP het beheer en gebruiksgemak kan verbeteren. Als de vooraf geïnstalleerde tools, de AI-appstore en GPU-management het configuratief benlvoedingsproces verminderen, wordt het aantrekkelijker voor organisaties die lokale AI willen inzetten zonder zelf alles te bouwen.

QNAP positioneert de QAI-h1290FX als een praktische manier om grote taalmodellen, RAG en contentgeneratie naar de interne omgeving te brengen. Het zal interessant zijn om te kijken naar de daadwerkelijke prestaties, prijs, beschikbare configuraties en software-ondersteuning op lange termijn. De vraag naar privé AI blijft bestaan, en producenten van opslag- en serversystemen proberen nu producten te ontwikkelen die eenvoudig te kopen, installeren en gebruiken zijn, zonder volledige afhankelijkheid van de cloud.

Veelgestelde vragen

Wat is de QNAP QAI-h1290FX?
Een edge opslagserver gericht op private AI-belastingen. Het combineert NVMe SSDs, AMD EPYC CPU, NVIDIA RTX GPU’s, containers, virtualisatie en tools voor lokale uitvoering van LLM, RAG en generatieve AI-applicaties.

Waarvoor dient het in een bedrijf?
Voor interne assistenten, documentzoek met RAG, private kennisbanken, beeldgeneratie, procesautomatisering en modeltesten zonder gevoelige gegevens extern te delen.

Wat zijn de voordelen ten opzichte van alleen cloud?
Data blijven binnen de organisatie, afhankelijkheid van externe providers wordt verminderd, en beheersing van prestaties en veiligheid wordt verbeterd. Nadelen zijn het hogere beheer, onderhoud en capaciteitsplanning.

Bevat het kant-en-klare AI-hulpmiddelen?
QNAP geeft aan dat het tools zoals AnythingLLM, OpenWebUI en Ollama bevat, en dat integratie met Stable Diffusion, ComfyUI, n8n en vLLM wordt voortgezet.

via: qnap

Scroll naar boven