China tilt de lat voor supercomputing opnieuw naar hoge niveaus met Sunway “OceanLite”
Een team van onderzoekers in China heeft met de nieuwe supercomputer Sunway “OceanLite” aangetoond dat de neuronale netwerken van quantumtoestanden (NNQS) kunnen opschalen tot significante moleculaire groottes, met een Bijna perfecte efficiëntie en op tientallen miljoenen kernen. Deze vooruitgang is niet alleen een prestatie op het gebied van prestatie, maar suggereert ook een pragmatische manier om materialen en chemische reacties te modelleren met de krachtigste klassieke computing die momenteel beschikbaar is, zonder te wachten op bruikbare quantumprocessoren.
Wat hebben ze precies gedaan?
Het werk brengt een reeds bekend NNQS-approach naar exaescale, dat een netwerk traint voor het benaderen van de golf functie van een elektronisch systeem om zo eigenschappen en energieën te voorspellen. Dit trainingproces bestaat uit twee zeer kostbare stappen: het monstername van configuraties (zoals “foto’s” van het quantum systeem) en het berekenen van de lokale energie voor elke configuratie. Naarmate de molecuulgrootte toeneemt, raken deze stappen uit balans en wordt de berekening onregelmatig; efficiënt opschalen is de uitdagende taak.
In Sunway hebben de auteurs een NNQS-Transformer geïmplementeerd die is aangepast aan de architectuur van het systeem: lichte kernen die berekeningen binnen lokale geheugen uitvoeren en beheerkernen die de communicatie coördineren, met een belastingverdeling die is ontworpen zodat alle kernen continu actief zijn. Het resultaat: de code draaide op ~37 miljoen kernen met 92% sterke opschaling en 98% zwakke opschaling, wat betekent dat er nauwelijks verliezen zijn bij het toevoegen van middelen aan een probleem of bij het laten groeien van het probleem samen met de middelen. In de quantumchemie zijn dergelijke efficiënties op deze schaal ongebruikelijk.
Waarom het belangrijk is
Tot nu toe bleven de NNQS vaak beperkt tot kleine systemen. In deze demonstratie zijn structuren van tot 120 spinorbitalen bereikt, een cijfer dat de methode dichter bij moleculen en materialen van praktisch belang brengt. Als deze algoritmen goed presteren op grote schaal, kunnen de exascale supercomputers de ontdekking van nieuwe verbindingen, katalysatoren of medicijnen veel eerder versnellen dan het bestaan van volwassen quantumcomputers voor deze taken.
Bovendien versterkt het experiment een onderliggend inzicht: de architecturen die momenteel LLM’s trainen, kunnen ook de structuur van materie leren. Dat een systeem dat is ontworpen voor reguliere ladingen (diepe training) een onregelmatige lading (quantumchemie) heeft opgelost met deze efficiënties, getuigt van software rijpheid, gegevenspartitionering en een nauwgezet werk aan communicatie en I/O.
Het profiel van de machine: Sunway van binnen
Sunway “OceanLite” is de opvolger van TaihuLight en maakt gebruik van SW26010-Pro chips, georganiseerd in clusters van kernen met dichtbijgelegen geheugen (“scratchpad”) in plaats van een conventionele cachehiërarchie. Tienduizenden van deze chips zijn verbonden in een systeem met meer dan 40 miljoen kernen dat exaschaalprestaties heeft aangetoond in verschillende wetenschappelijke uitdagingen. De gegevenslocaliteit en de fijne controle over het geheugen passen goed bij de NNQS-Transformer aanpak als deze is ontworpen voor die topologie.
Een opvallend detail is het gebruik van Julia in de software stack: een high-level taal die, in combinatie met zeer geoptimaliseerde specifieke code, snel prototyping mogelijk maakt zonder in te boeten op prestaties dicht bij die van C/Fortran. Enkele jaren geleden was dat nog een experiment; tegenwoordig is het een integraal onderdeel van een productieve HPC-omgeving.
Waar de grenzen nu liggen
Het opschalen van de wiskunde was de eerste muur; de tweede zal zijn om data te verplaatsen en te beheren. Deze simulaties genereren gigantische volumes en vereisen dat miljoenen kernen constant informatie delen. De bottleneck verschuift naar opslag en netwerk, die gegevens bijna zo snel moeten aanleveren als ze worden berekend. Het team zelf wijst op deze grens: zonder I/O die voldoet aan de verwachtingen, blijft de theoretische efficiëntie slechts op papier.
Daarnaast moet de catalogus van systemen worden uitgebreid: naast de 120 spinorbitalen zal er getest moeten worden met complexe geometrieën, opgewekte toestanden en omgevingen (oplosmiddelen, oppervlakken). Het doel is niet alleen de schaal, maar ook de chemische nauwkeurigheid vergeleken met referentiemethoden (zoals gekoppelde clusters) in sterke correlatieregio’s.
Wat het betekent voor de AI-wetenschap race
De boodschap aan het ecosysteem is dubbel. Voor chemie en materialen vervangt AI de quantumfysica niet: het benadert het met een steeds aantrekkelijkere precisie/kosten verhouding op moderne supercomputers. Voor de HPC laat het zien dat de weg naar exaschaal niet alleen dient om benchmarks te verbeteren, maar ook om nieuwe wetenschap te openen wanneer algoritme, architectuur en software op elkaar zijn afgestemd.
Op de middellange termijn zijn er kruisbestuivingen te verwachten: chemiegroepen die validatiesets en metrics aanleveren; HPC-teams die werken aan het verbeteren van communicatie, heterogene programmering en opslag; en leveranciers van geheugen/netwerk die topologieën aanbieden die beter zijn afgestemd op NNQS. Als de driehoeksverhouding wordt gesloten, zou de ontwikkeling van materialen en medicijnen eerder van de grond moeten komen dan verwacht.
Context en precedenten
Het idee om neuronale netwerken te gebruiken voor golf functies is niet nieuw, maar de schaalvergroting is dat wel. De gemeenschap had al Transformer-varianten voor NNQS gepresenteerd met goede metrics en opschaling in middelgrote problemen; evenzo had het Sunway-team zelf al massale quantum simulaties (bijvoorbeeld willekeurige circuits) laten zien met efficiëntie dicht bij de ideale. Het verschil nu is om beide elementen — NNQS + Sunway — samen te brengen en regressie te demonstreren waar eerder irregulariteit en bottlenecks bestonden.
Wat komt er aan
- Meer echte chemie: validaties met grote datasets en directe vergelijkingen met standaard ab initio methoden.
- Volgende generatie I/O: slimmere netwerken en snellere opslag zodat de berekening niet op de data hoeft te wachten.
- Hernieuwbare toepassingen: het reproduceren van deze resultaten op andere exaschaalarchitecturen (VS, EU, Japan) om de aanpak te consolideren als werktool, niet alleen als mijlpaal.
Bron: Vastdata en IEEE Explore
