Moore Threads, een van de bedrijven die wordt genoemd als potentiële leider in de Chinese tegenhanger van de grote Westerse leveranciers van computingoplossingen voor Kunstmatige Intelligentie, probeert nu een sprong te maken die verder gaat dan silicium. Het met hoofdkantoor in Peking gevestigde bedrijf heeft een eigen door AI ondersteunde programmeerservice geïntroduceerd — onder de naam “AI Coding Plan” — met een duidelijke ambitie: niet alleen GPU’s verkopen, maar ook de softwarelaag beheersen die die rekenkracht omzet in productiviteit voor ontwikkelaars.
Deze beweging komt op een moment dat programmeren met behulp van taalmodellen is uitgegroeid tot een strategisch speelveld. In het Westen hebben tools zoals GitHub Copilot genormaliseerd dat AI-assistenten in de code-editor worden gebruikt; gelijktijdig ontstaan er oplossingen die strijden om de “interface” van de moderne programmeerpraktijk te worden. In China is de strijd tweevoudig: enerzijds wordt gestreefd naar competitie op het gebied van ervaring en resultaten; anderzijds wil men externe afhankelijkheden verkleinen in een domein dat bijzonder gevoelig is voor handelsbeperkingen en technologische geopolitiek.
Van chip tot toetsenbord: waarom Moore Threads de controle over de gebruikerservaring wil
De kern van Moore Threads’ overtuiging is dat het competitieve voordeel niet meer alleen ligt in de bruto prestaties van hardware. De waarde verschuift richting complete platforms: infrastructuur + modellen + werktools + integratie met echte workflows. Volgens deze invalshoek biedt “AI Coding Plan” een “verticale” ontwikkel-suite, ondersteund door hardware van eigen bodem en een getraind model voor programmeertaken.
De dienst steunt op de GPU MTT S5000, gebaseerd op de Pinghu-architectuur. Volgens beschikbare informatie over het bedrijf ging deze chip in productie in 2025 en is uitgegroeid tot een van de commerciële spilfiguren van de groep, met voorspellingen dat de omzet zal verviervoudigen dankzij de adoptie van de S5000 in AI-gerichte clusters. Deze boodschap sluit aan bij een marktrealiteit: wanneer toegang tot geavanceerde acceleratoren complexer of duurder wordt, wint software die het lokale rekenvermogen “bruikbaar” maakt aan belang bij de aankoopbeslissing.
Met andere woorden: GPU’s verkopen is belangrijk, maar het sneller laten schrijven, debuggen en afleveren van code door ontwikkelaars — zonder dat ze je platform verlaten — is wat echt een gewoonte wordt. En gewoonten leiden, in technologie, vaak tot lock-in.
Compatibiliteit als haak: instappen zonder ‘van nul te moeten beginnen’
Een van de belangrijkste punten van de aankondiging is de belofte van compatibiliteit met populaire tools. Moore Threads heeft aangegeven dat hun plan kan samenwerken met bestaande omgevingen en workflows die ontwikkelaars al kennen, door integratie of ondersteuning voor veelgebruikte hulpmiddelen binnen het ecosysteem van “AI coding”. Deze strategie heeft een praktisch doel: het minimaliseren van de psychologische en technische drempels voor verandering. In een markt waar code-editors, plugins en sneltoetsen deel uitmaken van de professionele identiteit, is verplicht migreren vaak de snelste manier om gebruikers te verliezen.
Daarnaast heeft deze aanpak ook een industriële lezing. Als het hardware-ecosysteem lokaal is, maar de ontwikkelaar zijn workflow behoudt, kan adoptie versnellen. En als adoptie toeneemt, wordt de hardware meer gerechtvaardigd. Het is een circulair proces — mits de prestaties en betrouwbaarheid in orde zijn.
De rol van het model: GLM-4.7 als concurrentieargument
Op modelniveau vertrouwt het platform op GLM-4.7, ontwikkeld door Zhipu AI (Z.ai). De publieke documentatie en communicatie van Z.ai beschrijven GLM-4.7 als een model ontworpen voor praktische ontwikkelscenario’s, dat hoog scoort in programmeringsbeoordelingen; eveneens wordt verwezen naar competitieve resultaten in sector-standaard benchmarks en goed presterende tests op het gebied van software engineering. De kernboodschap is helder: de “copiloot” wordt niet meer alleen beoordeeld op het autocompleteren van regels, maar ook op het oplossen van langere taken, doorzoeken van codebasissen en functioneren als agent die stappen uitvoert. In die overgang speelt de kwaliteit van het model net zo’n belangrijke rol als de rekenkracht.
Een groeiende markt: Alibaba, ByteDance en het “nieuwe front-end” van software
Moore Threads bevindt zich niet in een lege ruimte. Alibaba versterkt al geruime tijd zijn aanwezigheid in AI-ondersteund programmeren, met Tongyi Lingma en de Qwen-modellen gericht op code. Het bedrijf heeft verklaard dat zijn assistent sinds de lancering tientallen miljarden regels code heeft gegenereerd, wat dient als adoptiecijfers en vooral als signaal naar andere bedrijven dat deze technologie niet meer experimenteel is.
De nationale concurrentie mengt zich met de internationale, maar er is ook een bredere trend zichtbaar: IDE’s en code-editors zijn uitgegroeid tot kanalen voor distributie. Wie de hoek controleert waar ontwikkelaars dagelijks uren doorbrengen, beheerst in grote mate de softwareproductie. Het gaat niet alleen meer om “wie code het beste schrijft”, maar vooral om wie de norm wordt voor bedrijfsworkflows.
Strategisch inzicht: soevereiniteit, marges en een nieuwe benadering van GPU-verkoop
Het onderliggende idee van Moore Threads’ aankondiging geeft aan dat het bedrijf zijn identiteit aan het herdefiniëren is: van chipfabrikant naar platformaanbieder. Deze stap kan de marges verbeteren (diensten en abonnementen zijn doorgaans voorspelbaarder dan eenmalige hardwareverkopen) en de boodschap van technologische zelfvoorzienendheid versterken. Tegelijk brengt het nieuwe verantwoordelijkheden: ondersteuning, community, beveiliging, productontwikkeling en vooral vertrouwen.
Want zodra AI-ondersteund ontwikkelen een kernactiviteit wordt, zijn fouten — zoals hallucinaties, subtiele bugs, lekkende code of onjuist databeheer — niet meer slechts “laboratoriumproblemen”. Het wordt een productieprobleem.
Toch past deze beweging binnen de sectortrend: AI-infrastructuur wordt ‘geproduceerd’ en naar lagen gebracht die steeds dichter bij de eindgebruiker liggen. Wie daar als eerste een volledige, redelijk open ervaring biedt, kan een positie veroveren die moeilijk te verdrijven is.
Veelgestelde vragen (FAQ)
Wat is een “AI coding plan” en hoe verschilt dat van automatische code-aanvulling?
Een “AI coding” plan omvat meestal genereren, debuggen, refactoren en uitvoeren van langere taken (bijvoorbeeld wijzigingen in meerdere bestanden), niet alleen suggesties voor één regel code in de editor.
Waarom is het zo belangrijk dat het platform compatibel is met populaire ontwikkeltools?
Omdat het de adoptiebarrière verlaagt: een team kan het assistent snel proberen zonder hun workflow, plugins of instellingen te herschikken, wat snellere pilots en doorbraakprojecten mogelijk maakt.
Wat zijn de voordelen van een eigen stack (hardware + model + tool) voor bedrijven?
In de eerste plaats biedt het controle over de infrastructuur, verminderde afhankelijkheid van derden, en in bepaalde omgevingen meer opties voor naleving, datacomresidens en interne beveiligingsbeleid.
Kan een AI-codeassistent een ontwikkelteam vervangen?
In de praktijk wordt het nu vooral gebruikt om de productiviteit te verhogen: het automatiseert repetitieve taken, versnelt tests en documentatie, en helpt bij het exploreren van oplossingen, maar vereist nog steeds menselijke beoordeling, validatie en technische verantwoordelijkheid.
via: scmp
