SpikingBrain 1.0: De Chinese AI Geïnspireerd door de Hersenen die het Dominiëren van Transformers Uitdaagt

Innovatieve AI: SpikingBrain 1.0 van de Chinese Academie van Wetenschappen

Onderzoekers van het Instituut voor Automatisering van de Academie van Wetenschappen van China (CASIA) hebben SpikingBrain 1.0 gepresenteerd, een kunstmatige intelligentie (AI) model dat het dominante paradigma van Transformers uitdaagt. Dit nieuwe model, gebaseerd op spike-neuronen die geïnspireerd zijn op het menselijk brein, belooft een aanzienlijke sprong in snelheid, efficiëntie en energieverbruik, en kan de toekomst van AI herdefiniëren.

Een architectuur die meer op het brein lijkt dan op een GPU

De kern van SpikingBrain ligt in zijn neurale verwerkingsmodel. In tegenstelling tot Transformers, die alle woorden of tokens gelijktijdig verwerken met kwadratische aandachtmechanismen, gebruikt SpikingBrain neuronen die alleen worden geactiveerd wanneer dat nodig is, vergelijkbaar met het menselijk zenuwstelsel. Deze aanpak vermindert de redundantie en verbetert de efficiëntie op drie belangrijke punten:

  • Snelheid: Tot 100 keer sneller bij lange sequenties.
  • Energiebesparing: Een vermindering van 97% in verbruik ten opzichte van conventionele berekeningen.
  • Gegevens: Minder dan 2% van de gebruikelijke training is nodig voor een vergelijkbare prestatie.

Het model is beschikbaar in twee versies: SpikingBrain-7B, geoptimaliseerd voor efficiëntie in uitgebreide contexten, en SpikingBrain-76B, een hybride met Mixture-of-Experts (MoE) architectuur die verschillende soorten aandacht combineert voor nauwkeurigheid met een laag energieverbruik.

Soeverein hardware: afscheid van NVIDIA

De aankondiging heeft een sterke geopolitieke achtergrond. In tegenstelling tot OpenAI, Google of Anthropic, die afhankelijk zijn van NVIDIA GPU’s voor training en uitvoering van hun modellen, is SpikingBrain ontwikkeld en getraind op MetaX C550, chips ontworpen in China. Dit stelt Peking in staat om de Amerikaanse beperkingen op halfgeleiders te omzeilen en versterkt de technologische onafhankelijkheid van het land. Voor analisten is SpikingBrain niet alleen een technische vooruitgang, maar ook een strategische zet in de race om de dominantie in AI.

Voorlopige resultaten en vergelijkingen

In interne tests vertoont SpikingBrain-7B tot 90% van de prestaties van vergelijkbare open-source modellen, terwijl de versie met 76 miljard parameters vergelijkbare of hogere statistieken behaalt in vergelijking met systemen zoals Llama 2-70B of Mixtral 8×7B, met een fractie van het energieverbruik. Bij taken met sequenties tot 4 miljoen tokens is de versnelling van de tijd tot de eerste token (TTFT) meer dan 100× in vergelijking met conventionele Transformer-modellen. Deze mogelijkheid om extreem lange contexten te beheren met constante geheugencapaciteit kan een van de grote knelpunten zijn die SpikingBrain lijkt te hebben opgelost.

Naar een duurzamere AI

De meest disruptieve innovatie kan liggen in de energie-efficiëntie. Volgens schattingen verbruikt het model een fractie van wat een standaard Transformer vereist, dankzij zijn spike-codering schema en het gebruik van spaarzame representaties die onnodige berekeningen verminderen. In een context waarin datacenters voor AI al meer dan 3% van de wereldwijde elektriciteit verbruiken, kunnen technologieën zoals SpikingBrain het verschil maken tussen een onhoudbare uitbreiding en duurzame groei.

Voorzorgsmaatregelen en twijfels

Ondanks de enthousiaste reacties is het werk nog niet gevalideerd door peer review. Internationale experts waarschuwen dat het moet worden aangetoond of deze “cerebrale” aanpak kan blijven voldoen aan de nauwkeurigheid en veelzijdigheid in redenering, taal generatie en multitasking, gebieden waar Transformers nog steeds dominant zijn. De wetenschappelijke gemeenschap herinnert er ook aan dat neuromorfische AI al meer dan een decennium wordt verkend met veelbelovende maar beperkte resultaten. De echte uitdaging zal zijn om deze architecturen op te schalen zonder afbreuk te doen aan de kwaliteit.

Conclusie

SpikingBrain 1.0 is niet alleen een academisch experiment: het vormt een directe uitdaging voor de dominantie van de Transformers en is een inzet van China om de volgende generatie kunstmatige intelligentie te leiden. Als de cijfers worden bevestigd, staan we mogelijk aan de vooravond van een kantelpunt in de geschiedenis van AI, waar biologische inspiratie resulteert in snellere, toegankelijkere en duurzamere modellen. De vraag is of het Westen zal reageren met een eigen golf van “cerebrale” AI of dat SpikingBrain het begin zal zijn van een nieuw technologisch paradigma dat in China is ontwikkeld.

Veelgestelde vragen

Wat is SpikingBrain 1.0?
Het is een AI-model geïnspireerd door het menselijke brein, gebaseerd op spike-neuronen, ontwikkeld door CASIA. Het onderscheidt zich van Transformers door informatie efficiënter te verwerken en met minder verbruik.

Waarom is het sneller dan ChatGPT?
Doordat het niet alle mogelijke verbindingen bij elke stap berekent, maar alleen de benodigde neuronen activeert, vermindert het redundante berekeningen en kan het tot 100 keer sneller zijn bij lange sequenties.

Wat is het belang van de MetaX hardware?
Door gebruik te maken van in China ontworpen GPU’s, vermijdt het model dat het afhankelijk wordt van NVIDIA en de exportbeperkingen opgelegd door de Verenigde Staten, wat de technologische autonomie van Peking versterkt.

Is het al een echte alternatieve voor Transformers?
De resultaten zijn veelbelovend, maar er is nog geen onafhankelijke validatie. De uitdaging zal zijn om te bewijzen dat het de nauwkeurigheid en veelzijdigheid kan evenaren van modellen zoals GPT-4 of Gemini in complexe toepassingen.

Scroll naar boven