Een nieuwe Amerikaanse start-up wil fotonica — de lichtgebaseerde berekening — centraal stellen in de discussie over de toekomst van hardware voor Kunstmatige Intelligentie. Neurophos, gevestigd in Austin (Texas), heeft aangekondigd dat het een Series A-financieringsronde van 110 miljoen dollar heeft afgesloten (118 miljoen inclusief eerdere financiering) om de ontwikkeling van hun Optical Processing Units (OPU) te versnellen, een familie van accelerators gericht op inferentie van AI die, volgens het bedrijf, sprongen in prestatie en efficiëntie beogen te maken die onmogelijk zijn met conventionele siliciumtechnologie.
De onderliggende gedachte is helder: de industrie stuit op fysieke en operationele grenzen. De “power wall” is geen metafoor meer; het vormt een echte belemmering voor datacenters, zowel door de beschikbare elektra, koeling als de totale kosten. In dat licht is het niet verrassend dat grootbedrijven en startups zoeken naar alternatieven, variërend van silicon photonics voor interconnectie tot nieuwe computationele paradigma’s. Reuters volgt bijvoorbeeld hoe fotonica terrein wint in netwerken en geavanceerde packaging voor AI-infrastructuren, juist vanwege zijn potentieel voor databewegingen met hoge efficiëntie.
Wat is een OPU en waarom is het belangrijk voor AI
In tegenstelling tot een traditionele GPU, waarbij elke operatie elektrische schakeling vereist, probeert een OPU kritieke AI-bewerkingen (vooral matrixvermenigvuldigingen) uit te voeren door gebruik te maken van fysieke eigenschappen van licht. In praktische termen beweert Neurophos dat hun architectuur meer dan een miljoen optisch verwerkingsonderdelen op één enkele chip bevat, waarbij de kerninnovatie ligt in micrometre-precisie optische modulators gebaseerd op metamaterialen. Deze miniaturisatie maakt het mogelijk om fotonische matrices op een schaal te ontwikkelen die geschikt is voor commerciële producten.
De belofte is aantrekkelijk vanwege een operationele reden: voor veel fotonische benaderingen kan de “rekenkracht” energiespaarzaam zijn zodra het signaal in het optische domein is. De hoge kosten liggen dan in de omzetting elektro-optisch en terug, evenals in de integratie met geheugen en digitale controlestromen. Hoe kostbaar deze omzettingen en integratie zijn, bepaalt of fotonica slechts een laboratoriumtechnologie blijft of daadwerkelijk de rack in gaat.
De cijfers die Neurophos presenteert
In openbare documents presenteert Neurophos configuraties Tulkas met twee niveaus: het OPU-module en het serversysteem. Specifiek geeft het bedrijf specificaties voor de T100 OPU en T100 Server, bedoeld voor intensieve operaties met lage precisies (FP4/INT4) en een aanvullende laag voor FP16/INT16.
Tulkas T100 OPU (module):
- 0,47 EXAOPS in MAC/GEMM-dense FP4/INT4-bewerkingen
- 235 TOPS/W (geclaimde efficiëntie)
- 2 kW piekvermogen / 1 kW gemiddeld
- 768 GB HBM met 20 TB/s bandbreedte
- 200 MB L2-cache
- ondersteunde software: Triton en JAX
Tulkas T100 Server (systeem):
- 2 EXAOPS in MAC/GEMM-dense FP4/INT4-bewerkingen
- 10 kW piekvermogen / 5 kW gemiddeld
- 3,07 TB HBM met 80 TB/s
- 800 MB L2-cache
- software: Triton en JAX
Sommige technische publicaties hebben deze cijfers opgeblazen met meer ambitieuze uitspraken — inclusief verwijzingen naar een vermeende “Tulkas T110” en interne snelheden van tientallen GHz — hoewel deze naamgeving niet overeenkomt met de voornaamste aanduidingen in de bedrijfsmaterialen die geraadpleegd zijn.
Het belangrijke onderscheid: EXAOPS is niet gelijk aan “petaFLOPS”
Hier is het essentieel om marketing en technische realiteit te onderscheiden. Wanneer sprake is van EXAOPS (exa-operaties per seconde) in FP4/INT4, gaat het om een heel specifiek soort operatie — vaak MAC/GEMM — en in extreem lage precisies, die relevant zijn voor inferentie en bepaalde quantisatietechnieken. Ze kunnen niet eenvoudig worden vergeleken met traditionele FLOPS (FP32/FP64) of met onafhankelijke benchmarkresultaten. Met andere woorden: de getallen zijn enorm, maar de werkelijke waarde hangt af van welke taken, wat de effectieve precisie, wat de latentie, welke geheugenbandbreedte en welke tools er beschikbaar zijn om het systeem te gebruiken zonder de stack te herzien.
Neurophos beweert bovendien dat hun technologie een “drop-in” vervanging voor datacenters kan worden en dat hun hardware “tot wel 100×” beter zou kunnen presteren qua rendement en efficiëntie vergeleken met huidige toonaangevende chips. Dit zijn ambitieuze uitspraken die nu nog in de sfeer van presseteksten hangen en moeten worden bevestigd door reproduceerbare vergelijkingen.
Geopolitieke en industriële achtergrond: niet alleen “meer prestaties”
Er zijn twee extra factoren die verklaren waarom dit nieuws aandacht krijgt:
- Kapitaal en samenwerkingsverbanden: de financieringsronde wordt geleid door Gates Frontier, met deelname van M12 (het fonds van Microsoft), en ook spelers actief in energie en duurzaamheid. Dit signaleert dat de “compute-per-watt” uitdaging wordt gezien als een strategisch knelpunt, niet slechts een marginale optimalisatie.
- Het ecosysteem beweegt richting fotonica: zelfs wanneer fotonica wordt ingezet voor interconnectie, niet voor rekenwerk, verloopt de ontwikkeling in dezelfde richting: meer data verplaatsen met minder energie en warmte. Deze discussie is sterk verbonden met geavanceerd packaging en systeemarchitectuur.
De cruciale vraag: lab of platform?
Om een OPU een volwaardig infrastructuurproduct te laten worden, moeten drie uitdagingen worden overwonnen:
- Softwareontwikkeling en adoptie: het belooft dat Triton/JAX compatibel is, maar de markt vereist praktische ondersteuning voor workflows zoals PyTorch, TensorRT-achtige oplossingen, geoptimaliseerde kernels, observability en tools voor productieomgevingen.
- Betrouwbaarheid en controle: fotonica en analoge (fysieke) berekeningen vereisen vaak calibratie, compensatie van variaties en ruismanagement. Operationele engineering is net zo belangrijk als de prestatie zelf.
- Integratie met geheugen en netwerken: inferentie bestaat niet alleen uit rekenen; dataverplaatsing is essentieel. De cijfers voor HBM en bandbreedtes zijn daarom net zo belangrijk als de operationele capaciteit.
Neurophos zegt dat ze vooral werken aan hardware voor ontwikkelaars en vroege deployments. Als het project zich ontwikkelt, is het niet onwaarschijnlijk dat de toekomst meer lijkt op een mix van GPU’s, gespecialiseerde acceleratoren en fotonica, dan op een onmiddellijke vervanging van bestaande dominante oplossingen.
Veelgestelde vragen
Wat is een Optical Processing Unit (OPU) en hoe verschilt het van een GPU?
Een OPU voert belangrijke bewerkingen (zoals matrixvermenigvuldigingen) uit door gebruik te maken van licht in geïntegreerde fotonische schakelingen, terwijl een GPU dit doet via elektrische schakelingen met transistoren. Praktisch gezien kan een OPU potentieel veel energie-efficiënter zijn en anders omgaan met geheugen, signaalconversies en controle.
Waarom zijn FP4 en INT4 zo relevant voor AI-inferentie?
Omdat veel inferentietaken tolerant zijn voor lage precisies dankzij quantisatietechnieken. Het gebruik van lagere precisies verhoogt de effectieve doorvoer en verlaagt het energieverbruik, zolang de modelkwaliteit en de systeembandbreedte adequaat blijven.
Is een OPU geschikt voor het trainen van modellen, of is het enkel voor inferentie?
Volgens Neurophos richt de technologie zich vooral op inferentie en het uitvoeren van dense MAC/GEMM-bewerkingen in lage precisie. Training vereist andere balans tussen precisie, stabiliteit en communicatie, waardoor niet automatisch aangenomen kan worden dat het voor training bedoeld is.
Wat zijn de belangrijkste obstakels voor fotonische computing in AI?
Integratie met software stacks, de hoge kosten en latentie van elektro-optische omzettingen, calibratie en ruismanagement, operationele betrouwbaarheid, en onafhankelijke validatie met realistische workload en benchmarks.
Op basis van het Neurophos whitepaper.
